Donnerstag, 22. Oktober 2015

Neuer Lesestoff: Klima-Menetekel und Georg Imberts große Erfindung...

...Seite 405

Seit Beginn des industriellen Zeitalters hat sich noch eine weitere Kohlendioxidquelle aufgetan, die der menschlichen Tätigkeit zuzuschreiben ist - und zwar in Form der Kohlenstoffverbrennung zur Energiegewinnung. 


Anthropogener Treibhauseffekt


Deren Anteil am gesamten Treibhauseffekt wird gewöhnlich als „anthropogener Treibhauseffekt“ bezeichnet - und auf ihn gründet sich die Angst vor einer globalen Klimakatastrophe, die es zu verhindern gilt (ungefähr 6% des gesamten in der Erdatmosphäre vorhandenen Kohlendioxids ist anthropogenen Ursprungs). Die Logik, die dahinter steckt, lässt sich wie folgt darlegen: Durch Verbrennung fossiler Kohlenstoffe (Kohle, Erdgas, Erdöl) zur Energiegewinnung entsteht als Verbrennungsprodukt Kohlendioxid, dessen Konzentration in der Atmosphäre entsprechend stetig ansteigt (von 280 ppm in der vorindustriellen Zeit auf heute ~400 ppm. Das entspricht 12 CO2-Moleküle mehr auf 100.000 Luftmoleküle).


Mit diesem Anstieg nehmen die Flanken der (bereits gesättigten) Kohlendioxid-Absorptionsbanden zu, wodurch mehr Wärmestrahlung absorbiert wird, was zu einer leichten Erhöhung der Lufttemperatur und diese wiederum zu einer verstärkten Wasserdampfbildung durch Verdunstung führt. Dadurch verstärkt sich der Treibhauseffekt (d. h. mehr Wasserdampf in der Atmosphäre) mit dem Ergebnis, dass die globale Durchschnittstemperatur entsprechend zunimmt. Die Beobachtungen als auch die Theorie weisen eindeutig darauf hin, dass es offensichtlich eine Korrelation zwischen dem globalen Temperaturmittelwert und der Kohlendioxidkonzentration gibt, wobei ein Vorlauf der CO2-Konzentration in Bezug auf die Temperatur postuliert wird. In dem man mittels Klimasimulationsrechnungen unter Berücksichtigung dieser Korrelation quasi in die Zukunft extrapoliert, ergeben sich die alarmistischen Zahlen für den zu erwartenden Temperaturanstieg in Richtung Apokalypse, welche die Politik zumindest in manchen Industriestaaten mit Deutschland an der Spitze umtreibt. Dabei zeigt sich immer mehr, dass sich die Natur nicht unbedingt an die Simulationen und Modelle der Klimaforscher hält. 

Seit 14 Jahren keine globale Erwärmung mehr


Denn seit nunmehr 14 Jahren scheint sich nach Satellitenmessungen die globale Durchschnittstemperatur der Erde nicht mehr zu erhöhen, obwohl die Kohlendioxidkonzentration mit ca. 2 ppm pro Jahr weiterhin ansteigt. 


Was der genaue Grund dafür ist, wird sowohl unter den Klimatologen als auch den sogenannten „Klimaskeptikern“ zurzeit äußerst kontrovers diskutiert. Auch zeigen im Gegensatz zu den theoretischen Erwartungen der meisten Klimamodellbauer die Messkurven einen deutlichen Nachlauf der Kohlendioxidkonzentration in Bezug auf die globale Mitteltemperatur - ein Effekt, der, da er nicht in das erwartete Bild passt, oft verschwiegen wird. Um es noch einmal zu betonen, es geht nicht darum, ob ein Klimawandel stattfindet (er findet immer statt), sondern um die Frage, wieviel davon, wenn überhaupt, „menschengemacht“ ist. Denn alle Vorhersagen beruhen auf äußerst komplexen Klimamodellen, mit deren Hilfe man versucht, quasi die zukünftige Entwicklung des Klimas vorherzusagen. Und das ist durchaus problematisch, wenn man weiß, wie solche Simulationen funktionieren. 

Kann man Klimasimulationen vertrauen?


Denn man kann ein komplexes System, wie es nun mal das System „Erde“ ist, immer nur näherungsweise mathematisch modellieren. Dabei sind weniger die Algorithmen, die auf der Lösung entsprechender Differentialgleichungen beruhen, strittig, sondern eher die Wahl der Anfangs- und Randbedingungen sowie die Wahl der räumlichen Auflösung (man spricht von den sogenannten „Gitterparametern“ - Die Erde wird dazu von einem dreidimensionalen Gitternetz umgeben, in dem für jeden Gitterpunkt pro Zeitschritt die meteorologisch signifikanten Größen berechnet werden). Eine der wichtigsten Fragen, die man sich bei der Arbeit mit derartigen „Klimasimulationen“ stellen muss, ist die Frage, inwieweit man ihrer Vorhersagekraft für 10, 100 oder sogar 1000 Jahre vertrauen kann. Und da ist auf jedem Fall Vorsicht und Skepsis angesagt. Ausnahmslos keines der vielen Klimamodelle, die von den verschiedensten Wissenschaftlergruppen zur Klimasimulation eingesetzt werden, konnte den mittlerweile 14-jährigen Stillstand der mittleren globalen Erdtemperatur vorhersagen. Gut, vielleicht ist ein Zeitraum von 14 Jahren auch zu kurz, um hier verlässliche Aussagen machen zu können. 

Klimasimulationen lassen sich weder validieren noch verifizieren


Aber dahinter könnte sich ein prinzipielles Problem von Klimasimulationen bzw. numerischen Simulationen komplexer Systeme an sich verbergen, auf das schon 1994 Naomi Oreskes, Kristin Shrader Frechette und Kenneth Belitz hingewiesen haben. Ihre Verifikation und Validierung ist nämlich nicht möglich - es sei denn, man wartet, bis der Vorhersagezeitpunkt, auf den sich die Simulation bezieht, erreicht ist. Dann kann man sehen, ob die Vorhersage eingetroffen ist oder nicht. Gerade das Problem bei Klimasimulationen ist, dass sie ein äußerst komplexes, an sich chaotisches System ausmitteln müssen, bei dem sowohl die Datengrundlage prinzipbedingt unvollständig und das Wissen über das zu simulierende System bestenfalls näherungsweise richtig ist. Die Wissenschaftler, die solche Klimamodelle entwickeln, können deshalb nie sicher sein, ob das Modell nicht doch irgendwelche relevanten Faktoren übersieht. Das bedeutet natürlich nicht, dass derartige numerische Simulationen hochdynamischer Systeme per se nutzlos wären. Sie sind es natürlich nicht, denn sie helfen, derartige Systeme zu verstehen und deren Entwicklungstrends aufzudecken.


Das heißt, man kann mit ihnen „spielen“, um zu sehen, was passiert, wenn an dieser oder jener Stellschraube (z. B. der Kohlendioxidkonzentration) gedreht wird. Man darf aber das Ergebnis einer Simulation, soweit sie zukünftige Zustände betrifft, nicht mit der Wirklichkeit verwechseln, wie das bei Klimamodellen gerne getan wird. Auch muss man berücksichtigen, dass Berechnungen immer mit Zahlen einer festgelegten Stellenzahl (Genauigkeit) ausgeführt werden und die dabei zwangsläufig entstehenden (und sich fortpflanzenden) Rundungsfehler „als Störung“ das Systemverhalten durchaus beeinflussen können. Die numerische Stabilität von derartigen Simulationen hängt dabei entscheidend von den numerischen Lösungsverfahren ab, weshalb die Mathematiker auch sehr viel Aufwand in deren Entwicklung stecken müssen. Bei der Interpretation von Simulationsrechnungen ist deshalb aus allen diesen genannten Gründen besonders große Sorgfalt an den Tag zu legen, insbesondere dann, wenn davon weitreichende politische Entscheidungen abhängig gemacht werden. Vom Standpunkt des Risikomanagement sollte man die Ergebnisse von Klimasimulationen, insbesondere wenn verschiedene Modelle zu einem jeweils ähnlichen Trend führen (Erwärmung des Planeten), durchaus ernst nehmen und, wenn es Sinn macht (was zu diskutieren wäre), Gegenmaßnahmen ergreifen. Andererseits sind die „Beweise“, die auf Messungen und nicht auf Simulationsrechnungen diverser Klimamodelle beruhen, im Lichte der natürlichen Temperaturschwankungen der Erde bei kritischer Betrachtung immer noch recht dürftig. 

Usurpierung des Klimawandels durch die Politik


Die Usurpierung des tatsächlich (und schon immer) stattfindenden Klimawandel durch die Politik hat schon zu einigen positiven, aber auch einer Vielzahl negativen Entwicklungen geführt, deren Durchsetzung ohne das Schreckgespenst „globale Erwärmung“ so nicht möglich gewesen wären. Wenn man die Modelle ernst nimmt, muss man sich entscheiden, ob man den anthropischen Anteil begrenzen möchte (konkret bedeutet das nach heutiger Auffassung „Drehen an der Kohlendioxidschraube“) – was dann nur eine globale Aufgabe sein kann, an der alle kohlenstoffverbrennenden Nationen zu beteiligen sind (wie es gegenwärtig aussieht, ist das, zumindest, was die Entwicklungs- und Schwellenländer betrifft, eine Illusion). 


Alleingänge a la Deutschland sind in dieser Hinsicht und im wahrsten Sinne des Wortes vollkommen bedeutungslos, was jeder selbst erkennen kann, der in der Lage ist, sich die Zahlen im Internet zusammenzusuchen und zugleich noch fähig ist, einen Taschenrechner zu bedienen. Denn hier gilt, entweder alle gemeinsam ziehen es durch oder man lässt es bleiben. Wenn hier nicht alle großen Kohlendioxid-Produzenten mitspielen (also u.a. China, Indien, die USA und Russland), wird mit Sicherheit der erhoffte Effekt verpuffen. Und alle die, die mitgemacht haben, haben dann einen großen Teil ihrer Anstrengungen (die sie mit vielen Nachteilen erkauft haben) in den Sand gesetzt (man bedenke, dass in den Industriestaaten die Angst vor der Klimaapokalypse sich zu einem bedeutenden Wirtschaftsfaktor entwickelt hat – d. h. damit lässt sich richtig Geld verdienen). 

Positive Effekte einer Erhöhung der Kohlendioxidkonzentration


Man kann die Argumentation aber auch umdrehen und darauf hinweisen, dass eine höhere Konzentration von Kohlendioxid in der Atmosphäre durchaus positiv sein kann. Nicht wegen einer möglichen Vergrößerung des Treibhauseffekts, sondern wegen der sich verbessernden Bedingungen für das Pflanzen- respektive Nutzpflanzenwachstum. Denn im Allgemeinen wird heute das Kohlendioxid-Molekül eher als eine „Gefahr“ für die Menschheit wahrgenommen. Dabei wird verkannt, dass der gesamte in Lebewesen (also auch in uns) eingebaute „Kohlenstoff“ primär aus dem Kohlendioxid der Luft stammt. Würde der Kohlendioxidgehalt der Luft auf einen Wert unter ~150 ppm sinken, dann hätte das fatale Folgen für das Pflanzenwachstum – es würde dann nämlich nicht mehr stattfinden. Richard Feynman, der große Physiker und Nobelpreisträger, hat einmal eine Binsenweisheit aufgeschrieben, die heute noch die meisten Menschen überrascht: 

Bäume bestehen hauptsächlich aus Luft. Verbrennt man sie, werden sie wieder zu Luft, und in der lodernden Glut wird die lodernde Glut der Sonne freigesetzt, die mitwirkte, um die Luft in den Baum zu verwandeln. Und in der Asche finden wir den kleinen Überrest des Anteils, der nicht aus der Luft, sondern aus der festen Erde kam.“ 

Wenn im Frühsommer bei uns in Deutschland die „Energiemaisfelder“ zu sprießen beginnen, dann stammt der Kohlenstoff ihrer extrem schnell wachsenden Stängel aus dem Kohlendioxid der Luft, den sie daraus im Prozess der Kohlenstofffixierung per Photosynthese mit Hilfe des Sonnenlichts gewinnen.


Eine höhere Kohlendioxidkonzentration in der Luft würde deshalb das Pflanzenwachstum eher stark befördern, wie man bereits aus der Erdgeschichte lernen kann. Da gab es Perioden, wo die Kohlendioxidkonzentration die 1000 ppm – Marke weit übertroffen hat, was mit einem äußerst üppigen Pflanzenwachstum (z. B. im Mesozoikum) verbunden war (zum Vergleich, der heutige Wert liegt bei ~400 ppm). Es kann also durchaus sein, die Klimakatastrophe findet nicht statt und die Erde wird stattdessen grüner, die Wüsten kleiner und die Pflanzen benötigen – wie eben veröffentlichte Forschungsergebnisse zeigen – weniger Wasser für ihr Wachstum. Die Erträge steigen und die Erde kann mehr Menschen menschenwürdig ernähren. Was ich damit sagen will ist, dass die Klima-Futurologie mittlerweile durch ihre Verflechtung mit Politik und Industrie zunehmend zu einer Ideologie ausgewachsen ist, in der die Befürworter und Gegner der These einer sich entwickelnden (menschengemachten) „Klimakatastrophe“ unversöhnlich gegenüber stehen. Es wird Zeit, dass auf diesem wichtigen Gebiet wieder die reine Wissenschaft Einzug hält – und zwar in Form ihrer altbewährten, ideologiefreien Methoden. Voraussicht kann dabei nicht schaden. Man sollte die Zukunft aber auch nicht gleich völlig schwarz malen, nur weil es für gewisse Interessengruppen zum Vorteil gereicht. Das Klima wird sich weiterhin ändern, und der Mensch wird dagegen nicht viel Substantielles entgegen zu setzen haben. Ich denke, es gibt gegenwärtig andere menschengemachte Probleme, deren Lösung dringlicher ist. Aber verweilen wir kurz bei den Vorteilen einer erhöhten Kohlendioxidkonzentration in der Erdatmosphäre in Bezug auf die Pflanzenwelt. Sie entnehmen es aus der Atmosphäre (was übrigens zu einer jahreszeitlichen Modulation der Kohlendioxidkonzentration führt) und wandeln es mit Hilfe des Sonnenlichts sowie des Wassers auf eine äußerst raffinierte Weise in Glukose (Traubenzucker) um, wobei Sauerstoffmoleküle frei werden.


Die Bedeutung der Photosynthese für das Leben auf der Erde ist fundamental. Sie kann wohl als eine der wichtigsten "Erfindungen" des Lebens überhaupt angesehen werden. Ohne Photosynthese wäre es auf der Erde mit hoher Wahrscheinlichkeit klein und primitiv und nur auf wenige geeignete Lebensräume beschränkt geblieben. Die sonnengetriebene Produktion von energiereichen organischen Stoffen wie Kohlenhydrate, Lipide und Proteine ermöglichte eine neue Art von Stoffwechsel, der neben den genannten Stoffen als Nahrungsmittel auch gleich den bei der Lichtreaktion anfallenden Sauerstoff als Oxidationsmittel für eine aerobe Lebensweise nutzen konnte. Heterotrophes (insbesondere tierisches) Leben hatte unabhängig von seiner Stellung in der Nahrungskette immer pflanzliches Leben als Primärproduzenten von Biomasse zur Grundlage. In diesem Zusammenhang ist es durchaus einmal interessant, den von Photosynthese betreibenden Lebewesen (Cyanobakterien, Pflanzen) bedingten Energie- und Stoffumsatz auf der Erde zu analysieren. Das Maß dafür ist die organische Trockenmasse, die im Rahmen phototropher Metabolismen jährlich entsteht. Sie liegt netto (also abzüglich des Stoffverbrauchs durch Atmung) ungefähr bei 115 Gigatonnen (Gt) in terrestrischen und 55 Gt in marinen Ökosystemen. Begrenzende Faktoren stellen dabei u. a. der Wirkungsgrad der Photosynthese (netto i. d. R. weit unter 5 %) und der Gehalt der Erdatmosphäre an Kohlendioxid dar. Letzterer muss immer wieder regeneriert werden (vulkanische Entgasung, Respiration), damit der globale Kohlenstoffkreislauf nicht aus dem Gleichgewicht gerät. Man schätzt, dass der gesamte atmosphärische Kohlenstoff einmal in nur 12,5 Jahren in der Biosphäre umgeschlagen wird. Um die Bedeutung dieser Zahlen auf ein handliches Maß herunter zu brechen (die Photosynthese treibt quasi alle biogeochemischen Kreisläufe irdischer Ökosysteme an), folgendes Beispiel: Jeder kennt ihn, den Laubbaum unserer gemäßigten Breiten – die Rotbuche (Fagus sylvatica).


Ein 100-jähriges Exemplar besitzt (zumindest im Sommer) etwa 200.000 Blätter mit einer Gesamtfläche von ~1200 m². Sie enthalten ca. 180 g Chlorophyll (das ist der grüne "Pflanzenfarbstoff" in dem die Photosynthese stattfindet), aufgeteilt in ~100 Billionen Chloroplasten in den Blattzellen. Diese Chloroplasten sind in der Lage, an einem sonnigen Tag aus ca. 36.000 m³ Luft ~9,4 m³ reines Kohlendioxid aufzunehmen und nachfolgend daraus ~12 kg Kohlenhydrate zu erzeugen. Bei der photolytischen Zerlegung des dafür benötigten Wassers entstehen dabei simultan ~9,4 m³ reiner molekularer Sauerstoff – was dem Tagesbedarf von 2 bis 3 Menschen entspricht. Von den 12 kg Kohlenhydraten wird ein Teil über einen komplizierten biochemischen Prozess in Lignin umgewandelt, welches wir heute gemeinhin als „Holz“ kennen. Kurz gesagt, im Buchenholz stecken nicht nur Aromastoffe, die für das „Räuchern“ von Schinken, Würsten und Käse wichtig sind, sondern auch - wie es Richard Feynman ausgedrückt hat - Sonnenenergie. Man kann sie zum Teil „zurückgewinnen“ in dem man das Holz verbrennt. Das ist, auf organische Abfälle und den schnellwachsenden „Biomais“ bezogen, das Prinzip der Biogasanlagen, nur dass hier das Ergebnis einer „Vergärung“ - und zwar Methan, gewonnen wird, welches dann später, z. B. in einem Gasmotor mit angeschlossenen Generator, verbrannt wird, um auf diese Weise Elektroenergie zu erzeugen. 

Georg Imbert und der Holzvergaser

Einen Gasmotor kann man aber auch für den Antrieb eines Fahrzeuges verwenden, wodurch wir auf einen Erfinder zu sprechen kommen, den noch vor nicht einmal 70 Jahren jeder einigermaßen gebildete Deutsche vom Namen her kannte: Georg Christian Peter Imbert (1884-1950).


Er erfand um 1920 herum den „Holzvergaser“ und etwas später das „Holzvergaserautomobil“. Sein „Treibstoff“ besteht zumeist aus Holzspänen, die man in einem entsprechenden Behälter mitführen kann. Und wenn der Treibstoff einmal knapp zu werden droht, muss man halt kurz anhalten, um im Wald Holz sammeln zu gehen... Aber Scherz beiseite. Der Holzvergasermotor war damals, besonders in den Kriegsjahren, eine sehr angesehene Antriebsquelle, so dass es sich durchaus lohnt, sich seine Funktionsweise einmal zu vergegenwärtigen. Immerhin erhoffte sich das Naziregime mit dieser „Wunderwaffe“ trotz der zuletzt immer aussichtsloseren Rohstofflage den „Endsieg“ doch noch zu erringen. Die beiden Grundtechnologien - die Erzeugung von Gas durch Verschwelung organischer Stoffe (dabei entsteht bekanntlich Kohlenmonoxid) sowie der Gasmotor - waren in den 1920er Jahren selbstverständlich wohlbekannt. Selbst die ersten Zwei- und Viertaktmotoren, die u. a. von Nicolaus Otto um 1865 entwickelt wurden, waren „Gasmotoren“, die man mit Leuchtgas betrieben hat. Dieses „Leuchtgas“ fiel in großer Menge bei der Herstellung von Koks aus Steinkohle an, denn Koks brauchte man wiederum in riesiger Menge bei der Eisen- und Stahlherstellung. Das Verdienst Georg Imbert’s war es, den Gaserzeuger (also das Teil, in dem aus Holzspänen „Leuchtgas“ erzeugt wird, welches man in diesem speziellen Fall als „Kraftgas“ bezeichnet hat) so zu verbessern und zu optimieren, dass man damit längere Zeit einen leichten Gasmotor betreiben kann. Stationär aufgebaut ließen sich damit Maschinen antreiben (z. B. Dreschmaschinen) oder, wenn die Anlage in einen LKW integriert wurde, konnte man damit benzinlos durch die Gegend schippern... Wenn man zum ersten Mal einen Holzvergaser sieht, so sieht er in etwa aus wie ein Kanonenofen. Unten glimmt ein Feuer und oben schüttet man Holzspäne hinein… Es kommt aber auf sein genaues Innenleben an. Denn in einen „Ofen“ entsteht nicht nur ein Gemisch aus Kohlenmonoxid (hochgefährlich!), Kohlendioxid und Wasserstoff, sondern noch eine Vielzahl weiterer Substanzen, die man in ihrer Gesamtheit schlicht als „Holzteer“ bezeichnet. Diese übelriechende zähe Flüssigkeit muss unbedingt permanent aus dem Holzvergaser entfernt werden, damit es nicht in den Motor gelangt, der ansonsten schnell seinen Geist aufgeben würde. Der „Ofen“ benötigt also zusätzlich noch einen Gaskühler, eine Teerauffangschale und schließlich auch noch einen Nachreiniger, und alles möglichst optimal für eine hohe Gasausbeute ausgelegt. Im Idealfall sollte der anfallende Teer gleich weiter verbrannt werden, damit gar nicht erst größere Mengen davon anfallen. Georg Imbert hat in dieser Beziehung viele Versuche unternehmen müssen, bis er „seine“ Optimalauslegung erreichte. Stichwörter dafür sind „Ringdüse“, Holzkohlenbett und Luftführung mit Umkehr. Trotzdem blieb der Energiegehalt des entstehenden Gases mit ~1,2 kWh pro Kubikmeter im Vergleich zu reinem Methan (Erdgas, ca. 10- mal höher) doch recht gering. Deshalb musste der Motor eine hohe Verdichtungsstufe (z. B. 1:9) erreichen, was wiederum dessen Konstruktion und Bau erschwerte. Schon zur Zeit seiner Erfindung war deshalb ein Holzvergasermotor, was die Leistungsfähigkeit betraf, einem „Benziner“ hoffnungslos unterlegen. Er wurde höchsten in speziellen LKW’s eingebaut (natürlich gibt es Ausnahmen, auch PKW’s und sogar Motorräder gab es mit Holzvergaser), die wiederum gerne von Gewerken erworben wurden, die selbst viel mit Holz zu tun hatten (z. B. Möbelbetriebe, Tischlereien etc.).

Stellen Sie sich einen S-Klasse-Wagen mit Holzvergaser vor...

Das änderte sich aber ab der zweiten Hälfte des zweiten Weltkrieges, wo Treibstoffe immer knapper wurden. Hier erlebte der Holzvergasermotor auf einmal eine Renaissance, die in Deutschland nach Kriegsende noch einige wenige Jahre anhielt. Dann gab es wieder Benzin und Diesel in Hülle und Fülle und dem Holzvergaser ging es wie den Sauriern - er starb aus. Und auch der Name seines Erfinders geriet schnell in Vergessenheit. Wie muss man sich nun eine Ausfahrt mit einem Holzvergaserauto, beispielsweise einem „Opel Blitz“ - LKW, vorstellen? Zündschlüssel umdrehen und starten war nicht. Als erstes musste man den „Ofen“ anheizen. Dazu legte man auf den „Herd“ eine ca. 10 Zentimeter dicke Schicht aus guter Holzkohle und darüber ein paar Späne. Etwas Brennspiritus hilft beim Anzünden. Also eine Arbeit, die jedem, der häufig grillt, leicht von der Hand geht. Sobald sich genügend Glut gebildet hat, kann man den Deckel öffnen und den Holzvergaser mit Holzspänen oder anderweitig zerkleinerten Holz befüllen. Man darf am Ende natürlich nicht vergessen, den Deckel wieder aufzusetzen. Sobald der „Vergaser“ genügend Gas produziert, heißt das, den Motor anzuwerfen. Dafür gibt es die berühmte Kurbel, die man von vorn in den Motor stecken musste - so wie man es in alten Filmen manchmal noch sehen kann. Damit musste man quasi händisch die Kurbelwelle ein paarmal drehen, damit die niedergehenden Kolben das Gas ansaugen können und der Holzvergaser auf diese Weise „Zug“ bekommt – so wie der Kamin durch den Schornstein. Mit etwas Glück springt jetzt der Motor an und es steht einer Spritztour nichts mehr im Wege. So alle 100 km muss man jedoch anhalten, um Holzspäne „nachzutanken“. Weitere 50 km weiter ist Termin, um den Gasreiniger zu reinigen. Und nach rund zweitausend Kilometer ist schließlich eine gründliche Reinigung des „Imbertgenerators“ in Erwägung zu ziehen, möchte man nicht, dass die Karre irgendwann in der Botanik stehen bleibt oder der Holzvergaser Feuer fängt und dabei abfackelt. Was man einem bezahlten LKW-Fahrer vielleicht noch zumuten kann, geht jedoch für einen Privat-PKW nun mal gar nicht (schon die Optik entsetzt). Kein Wunder also, dass das Holzvergaserauto kaum jemals wahre Freunde gefunden hat. Übrigens, so wie sich aus den mittlerweile ausgestorbenen Dinosauriern Vögel entwickelt haben, so hat sich aus dem Holzvergaser die Holzpelletheizung entwickelt. Irgendwie lebt die Erfindung Georg Imberts doch noch weiter. Und wenn man deren Technik zugrunde legt (Computersteuerung etc.), dann hätte heute vielleicht sogar ein Holzvergaserauto wieder eine Chance, vielleicht ökologisch CO2-neutral beheizt mit Biomaispellets. So gesehen ist es echt verwunderlich, dass man im Zuge der Energiewende auf diese Technologie noch nicht aufgesprungen ist. Der Gesamtwirkungsgrad sollte sogar besser sein, als wenn man aus Holz oder anderen organischen Stoffen zuerst Biodiesel herstellen und dann als Sprit verwenden würde. 

Das Gyroauto

Weil wir gerade bei ökologisch-nachhaltigen Antriebssystemen sind, muss unbedingt noch das in den 1950er Jahren nur kurzzeitig die Welt erblickende Gyroauto, ein spezielles Elektrofahrzeug, erwähnt werden. Es handelt sich dabei um eine eidgenössische Erfindung, bei der zur Energiespeicherung ein großes Schwungrad Verwendung fand. Es wird bei einem Stopp an einer Haltestelle mittels eines Elektromotors immer wieder neu beschleunigt, wobei der erforderlichen Strom über entsprechende Stromabnehmer auf dem Dach, ähnlich einem Trolleybus, bezogen wird.


Insgesamt wurden 17 Busse (und nur Busse) mit diesem Antriebssystem gebaut, bei denen ein 1,5 Tonnen schweres Schwungrad (Durchmesser 1,7 Meter), welches zwischen zwei stabilen Rahmenträgern aufgehängt war, auf rund 3000 Umdrehungen pro Minute gebracht wurde. Das dauerte aus dem Stand ungefähr 2 Minuten. Dann konnte sich der Bus von seiner Stromquelle abkoppeln und mit der im Schwungrad gespeicherten Energie ca. 6 km weit fahren, wobei eine Höchstgeschwindigkeit von 50 km/h erreicht wurde. Aber offensichtlich hat sich diese Idee nicht bewährt, denn seit 1960 wurde keines mehr von ihnen auf irgendwelchen Straßen der Welt gesehen. Aber vielleicht gibt es auch hier eine Weiterentwicklung, wie die vom Holzvergaser zur Holzpelletheizung. Ich möchte die Idee eigentlich gar nicht äußern, um nicht schlafende Hunde zu wecken: Neben jede WKA (Windkraftanlage) ein Schwungrad als Energiespeicher. Immerhin war es im Gyrobus in der Lage, sagenhafte 5 kWh an Energie zu speichern… Und diese Energie kann unberechenbar frei werden, wenn ein Schwungrad zerbirst. Und früher, Ende des 19. Jahrhunderts, wo Schwungräder als temporäre Energiespeicher oder zur Stabilisierung von Drehzahlen rotierender Wellen noch sehr beliebt waren, kam es durchaus öfters zu „Schwungradexplosionen“. Nach einer im Internet zu findenden Statistik starben allein zwischen 1856 und 1883 in Deutschland 16 Menschen bei insgesamt 38 Schwungradunfällen. 

Die Töpferscheibe

Die Ursachen dafür waren zumeist Material- und Lagerprobleme oder zu hohe Umlauffrequenzen. Das „Schwungrad“ ist übrigens eine ähnlich alte Erfindung wie die Windmühle (sogar noch um einiges älter) – und zwar in Form der Töpferscheibe. Ihr Gebrauch ist bis vor 6000 v. Chr. nachweisbar, und zwar im Zweistromland (Mesopotamien).
...

Keine Kommentare:

Kommentar veröffentlichen

Blogverzeichnis - Blog Verzeichnis bloggerei.de Interessante Blogs Blog-Webkatalog.de - das Blogverzeichnis