Montag, 9. November 2015

Lesestoff: Von der Offenbahrung über das FSM zur Naturkatastrophe Mensch...

... Seite 368

Nun ja, es scheint jedenfalls eine ganze Menge von Leuten zu geben, die an den Schwachsinn glauben, den die Nostradamus-Jünger heute aus dessen Schriften zu lesen meinen – und es scheint sich für diese „Experten“ auch durchaus zu lohnen, denn Amazon listet allein ca. 1300 Bücher zum Stichwort „Nostradamus“ in deutscher Sprache. Auf jeden Fall dürfte Max Dessoir (1867-1947) Recht haben, wenn er in seinem Buch „Vom Jenseits der Seele“ (1920) schreibt „Das (eigentliche) Wunder bei Nostradamus ist nicht sein Text, sondern die Auslegekunst seiner Erklärer.“ 

Exegese und Hermeneutik

Dabei ist gegen die Methode der Exegese bzw. Hermeneutik nichts einzuwenden. Sie findet durchaus breite Anwendung und ganze Fachbereiche, die insbesondere der Theologie oder Jurisprudenz zugeordnet sind, leben davon. Mit Hilfe der Exegese versucht man beispielsweise herauszubekommen, was uns ein Text in seinem Kontext eigentlich „sagen will“. Die Hermeneutik dagegen beschäftigt sich im philosophischen Sinn mit dem Akt des „Verstehens“ eines Textes und im methodischen Sinn mit dem Erklären und Auslegen von Texten. Beide „Methoden“ wurden ursprünglich dazu entwickelt, die in heiligen Texten enthaltenen Aussagen verständlich, z. B. im allegorischen Sinn, zu machen. 

Die Offenbarung des Johannes

Nehmen wir z. B. die Bibel und darin das letzte Buch des Neuen Testaments, die Apokalypse (besser bekannt als die „Offenbarung des Johannes“). Macht man sich die Mühe und liest als nicht sonderlich kirchlich Angehauchter den Text, dann fragt man sich unweigerlich, was will uns der Autor (augenscheinlich ein christlicher Prophet) damit eigentlich sagen? 


Offensichtlich ist der Text hochgradig erklärungsbedürftig. Seine mystische Sprache, sein Kontext, der nur im Kontext der Zeit, wo er geschrieben wurde, überhaupt verständlich zu sein scheint, widerstrebt einer sofort einleuchtenden Interpretation. Und hier beginnt die Arbeit der Exegeten, der Bibelausleger. Je nach ihrer Herangehensweise deuten sie die Apokalypse als „Gegenwartskritik“ im Sinne der „Gegenwart“ zur Zeit des römischen Kaisers Domitian (51-96), der ein grausamer Christenverfolger war. Andere wiederum sehen darin eine Zukunftsvision, die in der Endzeit, im „Jüngsten Gericht“, enden wird. Die vom Propheten „gesehenen“ Katastrophen kündigen sie an und steigern sich bis zum Endgericht, dem dann das Reich Gottes folgt. 

Albrecht Dürer: Die apokalyptischen Reiter

Diese Interpretation ist sehr beliebt bei den Zeugen Jehovas und wird auch gern einmal künstlerisch verarbeitet, wie z. B. in dem US-amerikanischen Endzeitfilm „Das Siebte Zeichen“ von 1988 (wobei man sich über den künstlerischen Wert des Streifens durchaus streiten kann). 


Eine weitere Interpretation liest die „Offenbarung“ mehr als Heilsdrama, als den Kampf gegen die Unheilsmacht des absolut Bösen, welches im Sieg Gottes und der Errichtung seines ewigen Reiches gipfelt. Historisch gesehen lässt sich diese Interpretation als Gesellschaftskritik an den Zuständen des römischen Kaiserreichs auffassen, vor dessen zerstörerischem Einfluss Johannes die kleinasiatischen Gemeinden, die noch stark hellenistisch geprägt waren, warnen bzw. bewahren wollte. Aus der „Offenbarung des Johannes“ haben es auch aufgrund der Bibelübersetzung Luthers ein paar Redewendungen bis in die Alltagssprache geschafft. So das „Buch mit sieben Siegeln“, und „Das Alpha und das Omega“ (bzw. „das A und O“) aus dem Zitat 

Ich bin das Alpha und Omega, der Erste und der Letzte, der Anfang und das Ende“. 

Dieses „Omega“ hat sogar - als Endpunkt der Geschichte - Einzug in die wissenschaftliche Terminologie gehalten, als „Omegapunkt“. 

Die Omegapunkt-Theorie

Als erstes als Zielpunkt aller evolutionären Entwicklungen an sich (z. B. im Sinne des Theologen und Philosophen Pierre Teilhard de Chardin (1881-1955)) und zum anderen als möglicher Endpunkt einer kosmologischen Entwicklung des gesamten Universums. Die „Omegapunkttheorie“ gibt sich als physikalische Theorie aus, die auf der Allgemeinen Relativitätstheorie Einsteins beruht und einen sogenannten „Big Crunch“ am Ende der Entwicklung unseres Universums vorhersagt. Dessen Eintreten hängt entscheidend von der mittleren Dichte der gravitativ wirksamen Energie (=Masse) des Kosmos ab. Übersteigt sie einen kritischen Wert, dann kommt die kosmische Expansion irgendwann zum Stehen und der „Kosmos“ geht in eine Kollapsphase über, die wiederum nach einer endlichen Zeit in einem „Big Crunch“ endet. 


Und genau hier wird von dem amerikanischen Physiker Frank J. Tipler der „Omegapunkt“ angesiedelt. Nur leider zeigen alle Beobachtungen, dass es (wahrscheinlich) nie zu einem „Big Crunch“ kommen wird, denn das Expansionsverhalten unseres Kosmos zielt auf eine „ewige“ Expansion hin - die Expansionsrate nimmt nämlich nicht ab, sie ist auch nicht konstant, sondern nimmt stetig zu. Für diese Entdeckung haben die Astronomen Saul Perlmutter, Brain P. Schmidt und Adam Riess 2011 den Nobelpreis für Physik erhalten. Was enthält nun die „Omegapunkt-Theorie“, welche Frank J. Tipler 1994 in seinem vielbeachteten und durch seinen Titel „Die Physik der Unsterblichkeit – Moderne Kosmologie, Gott und die Auferstehung der Toten“ auch schnell zu einem Bestseller gewordenen semipopulären Buch entwickelt hat? Tipler konstruiert darin ein Szenario, mit dem er letztendlich, quasi mit dem Anspruch einer naturwissenschaftlichen Grundlage, die „Wiederauferstehung“ eines jeden von uns – und zwar als „Simulation“ in einem kosmischen Computer – vorhersagt mit der Aussicht auf ein „ewiges Leben“, so wie es die christliche Religion ja auch verheißt. Viele Teile des Buches, soweit sie nicht mit theologischem Vokabular durchmischt sind und sich auf rein wissenschaftliche Teilaspekte wie z. B. Poincarès Theorem der Wiederkehr oder den „Wärmetod“ des Weltalls beziehen, sind durchaus auch für einen Physiker aufschlussreich und regen zum Nachdenken über den Gegenstand an (Hinweis: es ist keine leichte Kost!). Das Gesamtgebäude jedoch, welches der Autor darauf aufbaut, erscheint dann doch ziemlich krude und kann vom wissenschaftlichen Standpunkt aus nicht einmal ansatzweise ernst genommen werden. Die Ausgangsintention scheint eher so gewesen zu sein, dass eine Art „Glaubensinhalt“ vorgegeben wurde (das „Reich Gottes“ nach dem „Jüngsten Gericht“ gemäß der Apokalypse) und der Autor sich scheinbar ernsthaft gefragt hat (obwohl man das bei so einer fachlichen Koryphäe wie Frank J. Tipler eigentlich kaum glauben mag), wie die Natur (Kosmos) beschaffen sein muss und was der Mensch tun muss, damit dieser „Glaubensinhalt“ „am Ende der Zeit“ erfahrbar „wahr“ wird. Die Vermengung zwischen naturwissenschaftlicher Argumentation und eschatologischer Vorgaben, wie sie sich beispielsweise in monotheistischen Religionen wiederfinden, machen jedenfalls die Lektüre nicht einfacher. 2008 hat er übrigens nachgelegt: „Die Physik des Christentums: Ein naturwissenschaftliches Experiment“. Darin will er zeigen, dass alle „Wunder“ des Christentums naturwissenschaftlich erklärbar sind – von der „Jungfrauengeburt“ über den Spaziergang Jesus über das Wasser des Sees Genezareth bis hin zur Entmaterialisierung des Körpers von Jesus. Die „Lösungen“, die er dabei anbietet, sind aber derart grotesk (er erklärt z. B. das Wandeln Jesus über das Wasser mit einem Neutrinostrahl, der sich unter den Füßen Jesus bildet und nach „unten“ gerichtet ist – einfacher ging es wohl nicht? Wie wär’s mit einem Flyboard?), dass man irgendwann aufhört zu lesen. Von einigen Christen, besonders aus der Kreationistenszene, eupho-risch begrüßt, wurde es von seinen Fachgenossen (z. B. Lawrence Krauss, der ansonsten auch gern „spekuliert“) als barer Unsinn bezeichnet, welches der hohen fachlichen Reputation des Verfassers überhaupt nicht gerecht wird (er ist immerhin Professor für mathematische Physik an der Tulane University in New Orleans, der anerkannte Beiträge beispielsweise zur Kosmologie geliefert hat). 

Christlicher Fundamentalismus

Mit diesem Buch jedenfalls outet sich Tipler als Anhänger des Christlichen Fundamentalismus, die sich auf die Bibel als wörtlich inspiriertes Wort Gottes (des christlichen wohlgemerkt) berufen. Dieser Fundamentalismus, der insbesondere im sogenannten „Bibel-Gürtel“ der USA weit verbreitet, ja sogar dominant ist (in Form der Evangelikalen), versucht das moderne wissenschaftliche Weltbild wieder zu verdrängen, in dem es auf der Grundlage von Bibelworten eine Gegenposition aufbaut, die gläubige und schlichte Gemüter überzeugen soll. 

Intelligent Design

Aus dem Problem heraus, dass ihnen nach einem Rechtsstreit ihre Einflussnahme auf das säkularisierte Bildungssystem der USA erschwert ist, entwickelten sie unter dem Deckmantel der Wissenschaftlichkeit eine Gegenposition, die als „Intelligent Design“ bezeichnet wird, um über eine Hintertür doch noch ihre Anschauungen in das staatliche Bildungssystem einschmuggeln zu können. Dabei ist die Methode äußerst raffiniert. In dem man z. B. verlangt, dass sowohl die Darwin’sche Evolutionstheorie als auch die „Theorie des Intelligent Design“ – wobei offengelassen wird, wer der „Designer“ eigentlich ist (das kann sich ja schließlich jeder selber denken) – gleichberechtigt gelehrt werden, versuchen die Evangelikalen doch noch einen Fuß in die Schulen und Hochschulen zu bekommen. 


„Intelligentes Design“ ist erst einmal eine teleologische Position, die behauptet, das bestimmte Dinge in der Natur (die Evolutionstheorie ist dabei nur ein besonders gern genutztes Feld) besser erklärbar wären, wenn man den steuernden Einfluss eines außerhalb der Natur stehenden, allmächtigen Wesens postuliert. Dazu suchen sich die Anhänger des „Intelligenten Designs“ Phänomene oder Problemstellungen, die von der Wissenschaft noch nicht verstanden oder noch nicht geklärt sind und bieten eine scheinbare Lösung in dem Wirken eines „intelligenten Designers“ an. Und wenn dann die Wissenschaft doch eine einleuchtende und stringente Erklärung gefunden hat, dann wenden sie sich schnell einem neuen, noch nicht gelösten Problem zu. Dabei nutzen sie durchaus wissenschaftliche Methoden, publizieren in der entsprechenden Fachsprache und lassen meist nur im Hintergrund anklingen, dass zur Lösung des Problems nur ein übernatürlicher Einfluss übrig bleibt. Dabei wird das Wort „Gott“ oder anderweitiges religiöses Vokabular möglichst vermieden, damit nicht der Eindruck eines „Lückenbüßergottes“ aufkommt, der immer nur dann bemüht wird, wenn es darum geht, Lücken in einer wissenschaftlichen Argumentationskette zu schließen. Das sich die Ideologie des „Intelligent Designs“ gerade die Evolutionstheorie als wichtigstes Betätigungsfeld ausgesucht hat, scheint mehrere Gründe zu haben. In der extremen, quasi wortwörtlichen Auslegung der Bibel, wo es eine Schöpfung in 6 Tagen, einen Noah mit seiner Arche und eine die ganze Welt heimsuchende Sintflut gibt, ist es natürlich durchaus eine Herausforderung, diese Ansichten mit dem, was die Wissenschaft herausgefunden hat, in Einklang zu bringen. Wenn man die Schöpfungsgeschichte, wie sie in der Genesis niedergelegt ist, Wort für Wort für eine nicht zu hinterfragende Wahrheit hält, dann ist natürlich die Darwin’sche Evolutionstheorie mit stetigen Wandel über große Zeiträume hinweg ein natürlicher Feind dieser Auffassungen. In dieser Hinsicht ist die (katholische sowie evangelische mit Ausschluss der „Evangelikalen“) „Amtskirche“ pragmatischer und lässt Glaube Glaube und Wissenschaft Wissenschaft sein, ja, sie erkennt die Evolutionstheorie mittlerweile problemlos an, da sie eine Domäne der Naturwissenschaften ist und die von Glaubensinhalten, die sie in einer anderen Ebene ansiedeln, nicht berührt wird (Johannes Paul II., 1996). Evangelikale Strömungen können und wollen das nicht akzeptieren, weil das auch ihrem ausgeprägten Sendungsbewusstsein und ihrem Alleinvertretungsanspruch für die „göttliche Wahrheit“ widersprechen würde. Mittels der „Theorie“ des „Intelligenten Designs“ versuchen sie quasi eine Gegenposition zur Evolutionstheorie aufzubauen, die den Eindruck erwecken soll, dass sie auch eine „wissenschaftliche“ Position widerspiegelt, die der kanonischen Evolutionstheorie in ihrer Wertigkeit zumindest gleichzusetzen ist. Und gerade das ist sie nicht, denn sie bemüht zur Erklärung gewisser Phänomene etwas, was außerhalb der Naturwissenschaften steht und damit einer Falsifizierung gemäß Karl Popper prinzipiell nicht zugänglich ist. Ziel scheint es zu sein, die wissenschaftliche Evolutionstheorie im Gebäude der Biologie insgesamt zu diskreditieren, in dem man den Eindruck vermittelt, dass sie in deren Rahmen selbst umstritten sei (was sie natürlich nicht ist, denn „Nichts in der Biologie ergibt einen Sinn außer im Licht der Evolution.“ - Theodosius Dobzhansky (1900-1975)). „Moderne“ Formen des Kreationismus leugnen mittlerweile nicht mehr, was offensichtlich ist, nämlich das sich Lebewesen im Laufe der Zeit wandeln. Jeder Hühner- oder Hundezüchterverein könnte ansonsten deren Ansichten sofort ad absurdum führen. 


Grundtypentheorie

Sie haben sich dafür etwas anderes ausgedacht – auch in Hinsicht auf den begrenzten Frachtraum der Arche Noah – in dem sie nun behaupten, dass „Gott“ nur gewisse Grundtypen erschaffen hat, aus denen sich dann „nach der Sintflut“ alle heutigen Lebewesen durch Mikroevolution (und dann durchaus nach den Prinzipien Darwins) entwickelt haben. Bei konsequenter Verfolgung dieser Anschauung müssten die Kreationisten (was einige auch tun) das „Weltalter“ von nach ihren Berechnungen gerade einmal 6000 Jahren aufgeben (schon der anglikanische Theologe James Ussher (1581-1656) hat in einer beachtlichen Fleißarbeit aus der Generationenfolge der Bibel sowie den Vorarbeiten von John Lightfoot (1602-1675) den genauen Schöpfungszeitpunkt auf den 23. Oktober 4004 v. Chr. datieren können). Aber kommen wir zurück zu einigen Aspekten des „Intelligent Design“ in dem wir uns fragen, durch was sich ein „intelligenter Designer“ nun eigentlich verrät. 

Nichtreduzierbare Komplexität

Das Stichwort lautet hier „Nichtreduzierbare Komplexität“. Bevor näher auf diesen Begriff eingegangen werden soll, ist noch an eines der einflussreichsten Bücher des angehenden 19. Jahrhun-derts in Bezug auf Fragen, die man später mit dem Begriff der Evolution in Verbindung bringen wird, hinzuweisen. Es stammte von dem englischen Theologen und Philosophen William Paley (1743-1805), erschien 1802 und trägt den Titel „Natural Theology“. Was sich bis heute von diesem äußerst geistreichen Buch erhalten hat, ist das Gleichnis von der Taschenuhr, die ein Spaziergänger auf seinem Spaziergang am Wegrand findet. In dem er staunend deren Mechanismus untersucht, sieht, wie ein Rädchen in das andere greift und sich alles harmonisch zu einem Ganzen fügt, kommt er zu dem Schluss, dass diese Uhr nur ein begnadeter Uhrmacher geschaffen haben kann. 


Die gleiche Argumentation verwendet er dann in völlig einleuchtender und nachvollziehbarer Weise, um die Existenz von Pflanzen und Tieren (die ja nicht weniger, sondern eher noch um einiges wunderbarer sind als Taschenuhren) auf die geniale Arbeit eines Schöpfers zurückzuführen. Zu diesem Zeitpunkt, also lange bevor Darwins „On the Origin of Species…“ (1859) erschienen ist, war das die einzige und auch für jedermann verständliche Erklärung für die Existenz von Tieren, Pflanzen und Menschen. Würde man die Taschenuhr als ein natürliches, durch „Darwin’sche Evolutionsprozesse“ entstandenes Objekt auffassen, dann müsste es sich in vielen kleinen Schritten quasi dahin, auf welche Weise auch immer, „entwickelt“ haben. Da einzelne Entwicklungsstufen aber gemäß ihrer Eignung als Uhr „selektiert“ werden, müsste von vornherein sicher sein, dass am Ende der Entwicklung ein Zeitmesser steht. Jede Zwischenstufe jedenfalls kann als alles andere, aber niemals als Zeitmesser dienen. Erst das endgültige Zusammenspiel wirklich aller Teile macht die Uhr letztendlich zu einer Uhr. Wir sind uns deshalb von vornherein sicher, dass eine Taschenuhr ein Objekt eines bewussten, dem Ziel bzw. Zweck verschriebenes Kunstproduktes eines entsprechend fähigen und begabten Uhrmachers sein muss und kein Endpunkt eines natürlichen Evolutionsprozesses analog der biologischen Evolution. Ein Objekt, welches aus mehreren Teilen besteht, die erst in ihrer Zusammenwirkung den Zweck dieses Objekts ermöglichen, nennt man „nichtreduzierbar komplex“. Denn nimmt man nur ein Zahnrädchen aus der Taschenuhr, dann bleibt sie stehen und kann keine Uhrzeit mehr anzeigen. Michael J. Behe, der diesen Begriff in die wissenschaftliche Diskussion 1996 einbrachte, definiert ihn so: 

Ein nichtreduzierbar komplexes System kann nicht auf direktem Weg (d. h. durch fortgesetztes Verbessern der ein und derselben Ausgangsfunktion, die durch denselben Mechanismus weiter arbeitet) durch leichte aufeinanderfolgende Änderungen von weniger komplexen Vorläufersystems erzeugt werden, weil jeder Vorläufer zu einem nichtreduzierbar komplexen System, an dem ein Teil fehlt, per Definition funktionsunfähig ist.“ 

Dieses Konzept ist gerade deshalb für die Ideologen des „Intelligent Designs“ so interessant, weil es viele biologische Organe und Prozesse gibt, die aus vielen Teilen zusammengesetzt sind, die erst in ihrer Gesamtheit ihre Funktionalität (ähnlich der Taschenuhr) entfalten. Als ein für jedermann verständliches Beispiel wurde dafür früher gern das menschliche Auge genommen. Netzhaut, Glaskörper, Linse und Pupille müssen offensichtlich sehr genau zusammenarbeiten, bis mit ihrer Hilfe im Gehirn ein virtuelles Bild der Welt entstehen kann. Dieses Beispiel ist aber gerade nicht geeignet, um einen „intelligenten“ Augendesigner zu bemühen. 


Denn die evolutionäre Entwicklungslinie eines Wirbeltierauges und eines Tintenfischauges (beides Linsenaugen) lassen sich durchaus schrittweise nachvollziehen (und alle notwendigen Zwischenstufen lassen sich noch heute in rezenten Tierarten finden). Dazu kommt noch, dass das Wirbeltierauge (und damit auch das menschliche Auge) eine Fehlkonstruktion und das Tintenfischauge eine Idealkonstruktion eines Linsenauges darstellt. Man erkennt das leicht, wenn man sich die „Verkabelung“ der Lichtrezeptorzellen einmal genauer ansieht. Bei einem Wirbeltierauge reicht sie nämlich in das Innere des Auges und der Nervenstrang muss über den „Blinden Fleck“ nach Außen geführt werden. Kein Ingenieur der Welt würde auf die Idee kommen, so z.B. die Pixel eines CMOS-Sensors für eine Digitalkamera zu verdrahten. Wenn man sich aber die evolutionäre Entwicklung des Auges aus einer lichtempfindlichen Pigmentzelle über ein Becherauge sowie über eine Anzahl weiterer Zwischenstufen zum modernen Wirbeltierauge anschaut, dann wird klar, dass die Evolution einen einmal eingeschlagenen Weg zwar nicht mehr ändern, aber den „Anfangsfehler“ durch Optimierung quasi auf hohem Niveau ausbügeln kann. Dass es auch anders geht, zeigt das analog aufgebaute Auge eines Tintenfischs, welches, da „richtig“ verdrahtet, keinen „Blinden Fleck“ benötigt. Eine interessante Frage an einen Anhänger des „Intelligenten Designs“ wäre also in diesem Zusammenhang, was den „intelligenten Designer“ wohl bewogen haben mag, das menschliche Auge (oder ganz allgemein, ein Wirbeltierauge) genau so und nicht anders, d. h. im ingenieurtechnischen Sinn „richtig“, zu entwickeln. Das menschliche Auge jedenfalls taugt nicht, um dessen Existenz plausibel zu machen. Es gibt aber durchaus Objekte, deren schrittweise Entstehung und funktionelle Optimierung sich nicht so einfach ad hoc erklären lassen. Michael J. Behe diskutiert z. B. die Bakteriengeißel (Flagellen), die funktionell einen Nano-Ringmotor aus mehreren Funktionseinheiten darstellt, der nur dann funktioniert, wenn alle diese Funktionseinheiten vorhanden und richtig zusammengebaut sind. Geht man von den bekannten Evolutionsmechanismen aus, dann muss sich der Antrieb der Bakterie in Einzelschritten entwickelt haben, die zufällig und richtungslos waren. Diese „nichtreduzierbare Komplexität“ des „Elektrorotationsmotors“ eines Bakteriums ist in der Tat nur schwer verständlich, wenn man sie im Lichte einer schrittweisen Entwicklung betrachtet. Denn erst wenn alle Teile vorhanden sind, funktioniert die Geißel auch. 


Und erst wenn sie funktioniert, kann sie als Selektionsmerkmal dienen, an der wiederum nachfolgende evolutionäre Entwicklungsprozesse ansetzen können. Für die einzelnen Funktionseinheiten als individuelle Objekte gilt das offensichtlich nicht. In der Tat ist es aus der Sicht von Wahrscheinlichkeiten völlig unmöglich, dass zufällig eine entsprechende Anzahl von Mutationen gleichzeitig aufgetreten ist, die am Ende zu einer funktionsfähigen Geißel geführt hat. Was in dieser Argumentation aber nicht bedacht wird, ist die Möglichkeit, dass es in einem Entwicklungsprozess zu einer Funktionsänderung kommt. Und zwar in dem Sinn, dass die Einzelteile zunächst eine bestimmte Funktion wahrnehmen (im Fall des Flagellums beispielsweise in der Art einer Molekularpumpe, die in die Zellmembran eingebaut ist), die sie im Verlauf der Evolution jedoch in eine andere ändert (in einen Geißelmotor). Mittlerweile konnten die dazu notwendigen evolutionären Schritte aufgeklärt werden, so dass auch das häufig bemühte „Design-Argument“ für den bakteriellen Geißelmotor wegfällt. Das Problem an der „nichtreduzierbaren Komplexität“ liegt offensichtlich darin, dass sie sich auf den gegenwärtigen Zustand eines entsprechenden Objektes bezieht und nichts darüber aussagt, welche früheren Zustände das Objekt durchlaufen hat. Zusammengefasst muss man konstatieren, dass Kreationismus, auch wenn sie als pseudowissenschaftliches „Intelligent Design“ herkommt, nichts mit Wissenschaft zu tun und damit auch nichts in staatlich organisierten Bildungssystemen laizistisch organisierter Staaten zu suchen hat. Versuche, dies beispielsweise in einzelnen Bundesstaaten der USA zu ändern, konnten bisher immer abgewehrt werden. 

Lehre vom fliegenden Spaghettimonster (FSM)

Als ein Resultat dieses „Abwehrkampfes“ ist übrigens im Jahre 2005 eine neue Offenbarungsreligion mit einer mittlerweile erstaunlich großen Mitgliederzahl entstanden – und das geschah so: Als es sich immer mehr abzeichnete, dass die Schulbehörde von Kansas die Unterrichtung des „Intelligent Designs“ parallel zur Darwin’schen Evolutionslehre befürworten wollte, sah sich der Physiker Bobby Henderson veranlasst, einen ironischen, aber durchaus ernstgemeinten offenen Brief an die genannte Behörde zu versenden. Darin verlangt er, dass – wenn „Intelligent Design“ und damit Kreationismus – in einer öffentlichen Schule gelehrt werden soll, er auch Anspruch hat, dass „seine“ Lehre vom „Fliegenden Spaghettimonster“ (FSM) genauso gleichberechtigt zu lehren sei. 


Sollte dies nicht geschehen, kündigte er sogar rechtliche Schritte gegen das Kansas School Board an. Diese Spaßreligion, die alle Merkmale einer „echten“ monotheistischen Religion aufweist (mit sogar einigen Vorteilen!), verbreitete sich schnell – auch über die Vereinigten Staaten hinaus. Selbst in Deutschland gibt es einen Ableger dieser Religionsgemeinschaft mit einer nicht unbeachtlichen Zahl von Anhängern. Ihr Amtssitz ist Templin in der Uckermark, wo regelmäßig (ich glaube, jeden Freitag 10 Uhr) eine „Nudelmesse“ bei Bier und Pasta gefeiert wird. Übrigens, nach dem Tod stehen den Gläubigen im „Pasta-Himmel“ unter anderem ein Biervulkan und eine Stripper- und Stripperinnen-Fabrik zur Verfügung. Wenn das nichts ist. Kreationismus ist nicht nur eine Spielart fundamentalistisch angehauchter christlicher Sekten. 

Islamischer Fundamentalismus

Auch für den Islam ist der Darwinismus mittlerweile ein rotes Tuch, weshalb der islamische Publizist Adnan Oktar („Harun Yahya“, als der er auftritt, ist quasi sein „Künstlername“) ein richtig knallrotes Buch (zumindest in der englischsprachigen Ausgabe) mit einem Gewicht von mehr als 6 kg in Hochglanzpapier mit dem Titel „Atlas der Schöpfung“ herausgegeben hat, in dem er in einer für den Fachmann lächerlichen und für den islamgläubigen suggestiven Weise die schlichte Botschaft verkündet: Darwin hat unrecht! Auf den Inhalt braucht man gar nicht weiter einzugehen, obwohl seine Bildersammlung von Fossilien und heute existierender Pflanzen und Tieren durchaus recht ansehnlich und eindrucksvoll ist. Immerhin bedient er mit diesem Werk ein im Islam bis heute nur wenig beackertes Gebiet, denn mit richtiger „Wissenschaft“ hat sich diese Heilslehre schon lange nicht mehr auseinandergesetzt. Von einem „islamischen Kreationismus“ kann man genaugenommen erst seit den 1970er Jahren sprechen, nachdem die christlichen Fundamentalisten mit dieser Lehre immer mehr in die Öffentlichkeit gegangen sind. Die „Philosophie“, die dahinter steckt, lässt sich durch folgenden Satz auf den Punkt bringen: 

Alles Wissen ist schon im Koran angelegt und Wissenschaft muss sich daran messen. Ist der Koran mit der Wissenschaft nicht vereinbar, liegt automatisch die Wissenschaft falsch.

Hierin zeigt sich auch eine gewisse Schizophrenie der Lehre, z. B. im Iran. Würden nämlich die dortigen Ingenieure diesen „Lehrsatz“ so ernst nehmen wie ihre Mullas, dann brauchte niemand davor Angst zu haben, dass sie über kurz oder lang Atomwaffen entwickeln könnten. Genauso schizophren ist es, wenn die Terroristen des „Islamischen Staates“ jahrtausendealte Kulturdenkmäler zerstören, weil „davon nichts im Koran steht“, sich aber dazu mittels Smartphone und Internet verabreden (und auch von „Smartphones“ hab ich noch nichts in der Reclam-Ausgabe des Korans gelesen). 


Und geradezu grotesk erscheint es einen aufgeklärten Mitteleuropäer, wenn in der Abfertigungshalle eines Flughafens ein „Scheich“ aus Saudi-Arabien mit dem modernsten und teuersten Smartphone am Ohr an einem vorbeiwandelt, gefolgt (natürlich in einem gebührenden Abstand) von seinen drei (oder mehr) bis auf die Augenschlitze tief verschleierten Frauen. Man ist geneigt zu sagen, Hightech trifft auf geistiges Mittelalter. 

Progressive Rolle des Islams in der Geschichte

Und dabei gab es durchaus einmal eine Zeit, in der der Islam in gewisser Weise eine überaus progressive Rolle in der Geschichte der Menschheit gespielt hat. Davon zeugen heute noch phantastische Bauwerke wie Moscheen und Paläste mit ihrer typisch islamischen Ornamentik. Die maurische Alhambra auf einem Hügel bei Granada in Spanien ist dabei nur eines von vielen se-henswerten Beispielen. 

Alhambra, Granada

Als „Goldenes Zeitalter“ gelten die Jahrhunderte, die unter der Dynastie der abbasidischen Kalifen standen (zwischen 750 und 1250 n. Chr.), wobei der Höhepunkt das relativ friedliche Jahrhundert zwischen 900 n. Chr. und 1000 n. Chr. auf der iberischen Halbinsel bildete. Zentren des islamischen Wissens und Literatur waren zu dieser Zeit insbesondere das persische Chorasan sowie das von den Mauren beherrschte Al-Andalus, mit dem Emirat von Cordoba (später Granada) als geistiges Zentrum. Hier konzentrierten sich in einer durchaus weltoffenen Atmosphäre Gelehrte aller Wissenschaftsdisziplinen, um verschüttgegangenes antikes Wissen zu bergen, in Arabisch zu übersetzen (und damit zu bewahren) sowie um neues Wissen zu generieren. Unter dem Herrscher (Kalif) al Hakam II. (915 n. Chr. - 976 n. Chr.) wurde die große Bibliothek von Cordoba gegründet, in der bis zu 500.000 Bücher und andere Schriftzeugnisse aufbewahrt und genutzt wurden. Nehmen wir z. B. den im damaligen Persien wirkenden Astronomen Abu l-Wafa (940 n. Chr. - 998 n. Chr.), der nicht nur das Hauptwerk des Claudius Ptolemäus (Almagest genannt) ins arabische übersetzte, sondern der selbst eine Vielzahl mathematischer Entdeckungen (beispielsweise auf dem Gebiet der sphärischen Trigonometrie) vorweisen kann. Auch al-Biruni (973 n. Chr. - 1048 n. Chr.) wirkte in der Provinz Chorasan im alten Persien, wo er sich mit einer Vielzahl wissenschaftlicher Themen, insbesondere aus der Astronomie und der Kartographie, auseinandersetzte. So bestimmte er mit einem von ihm selbst entwickelten Messverfahren den Durchmesser der Erde, wobei sein Wert (12679 km) nur marginal von dem modernen Wert (12756 km am Äquator) abweicht. Auch ein wertvolles Geschichtswerk stammt aus seiner Feder. In Cordoba wirkte der berühmte Geograph und Historiker al-Bakri (1014 n. Chr. - 1094 n. Chr.), dessen Hauptwerk, das „Buch der Straßen und Reiche“ (es ist leider nur fragmentarisch erhalten geblieben), lange Zeit ein Standardwerk für Kaufleute und Abenteurer war, welche die damals bekannte Welt bereisten. Neben Mathematik, Astronomie und Geographie stand die Medizin im „Goldenen Zeitalter“ des Islams in voller Blüte. Das medizinische Wissen der Antike wurde wiederentdeckt und rezipiert, Krankenhäuser und Heilstätten errichtet und der Beruf des Arztes erfreute sich großer Wertschätzung. Der berühmteste Arzt aus jener Zeit dürfte Ibn Sina (980 n. Chr. - 1037 n. Chr.) gewesen sein, der im Mittelalter und in der Neuzeit mehr unter seinen latinisierten Namen „Avicenna“ bekannt war. 


Seine Schriften (insbesondere der fünfbändige Canon medicinae) waren das ganze Mittelalter hindurch im Gebrauch und Lehrstoff an den medizinischen Fakultäten der christlichen Universitäten. Seine Kenntnisse beschränkten sich dabei nicht nur auf die Heilkunde. Von ihm sind auch großartige philosophische und naturwissenschaftliche Werke überliefert, die ihn als einen Universalgelehrten seiner Zeit ausweisen. Ein weiterer arabischer Universalgelehrter, der insbesondere durch seine Aristoteles-Kommentare die Scholastik maßgeblich beeinflusst hat, ist Ibn Ruschd (1126-1198), bekannter als Averroës. Er war Jurist, Arzt und Philosoph und wurde im Mittelalter schlicht „der Kommentator“ genannt. Leider ging dieses „Goldene Zeitalter“ des Islams schnell zu Ende, als in Andalusien die Reconquista einsetzte und in Persien die Seldschuken die Oberhand gewannen. Man kann wohl mit Fug und Recht sagen, dass dieses „Goldene Zeitalter“ im islamischen Kulturkreis seitdem nie wieder erreicht wurde. Trotzdem haben sich aus jener Zeit, als Literatur und Wissenschaft blühte, Relikte bis ins Heute erhalten, obwohl uns das kaum bewusst ist. So stammen die meisten Eigennamen von Sternen am Himmel aus dem arabischen Raum. Und wenn wir „Alkohol“ trinken, dann hat auch dieses Wort – wie viele Wörter, die mit „Al“ beginnen (wie Algebra, Alchemie) – einen arabischen Ursprung: Al kuhul wurde die von den Alchemisten aus Wein hergestellte Flüssigkeit genannt, in der sich pulverisierte Kosmetika besonders gut lösten. Ansonsten ist Alkoholgenuss bekanntlich im Islam verpönt (besser „verboten“), was mit gewissen Versen im Koran und ihrer zeitlichen Reihenfolge zu tun hat. Der Koran ist nämlich in dieser Hinsicht widersprüchlich. Frühe Verse (aus der sogenannten mekkanischen Periode) erlaubten noch ausdrücklich den Handel und Genuss berauschender Getränke. Erst in der spätmedinischen Zeit gilt Alkohol als „Teufelszeug“, deren Genuss unter Androhung von Körperstrafen verboten ist. Nun gilt in der kanonischen Auslegung von widersprüchlichen Versen immer, dass der zeitlich gesehen jüngste (von der Gegenwart aus betrachtet) der Maßgebliche ist (Abrogation). Und so kann heute ein Vollrausch in einem der Scharia zugeneigten islamischen Land schnell zum Genuss der Strafe der Auspeitschung führen. Im islamischen Kalender befindet man sich ja auch erst im Jahr 1436… 

Iglauer Kompaktat

Im Jahr mit der gleichen Jahreszahl, diesmal der christlichen Zeitrechnung, nahm man in meiner zu jener Zeit noch böhmischen Heimatstadt Zittau (Sittaw) gerade das Ende der Hussitenkriege mit großer Freude und Erleichterung zur Kenntnis, die auch in der Oberlausitz und im benachbarten Schlesien viel Unheil über die Menschen gebracht hatten. Im Iglauer Kompaktat wurden schließlich einige Forderungen der Kalixtiner (der Hauptströmung der hussitischen Reformbewegung) erfüllt (das Abendmahl in beiderlei Gestalt – Hostie und Wein) und Kaiser Sigismund (1368-1437) wurde nun auch als böhmischer König von den Hussiten als Landesherr anerkannt. Das Kompaktat war natürlich ein Dorn im Auge der Papstkirche und hatte deshalb nur wenige Jahre (bis 1462) Bestand. Von den ehemaligen Hussiten spaltete sich schließlich die Religionsgemeinschaft der „Böhmischen Brüder“ ab, die eine an das Urchristentum angelegte Lebensweise an den Tag legten. Während der Zeit der deutschen Reformation wandten sie sich mehr der lutherischen Lehre zu, die sie noch mehr zur Opposition zum katholischen Klerus brachte. 

Majestätsbrief von Kaiser Rudolf II

Mit dem Majestätsbrief von Kaiser Rudolf II. (1609) wurde ihnen und allen anderen protestantischen Ständen in Böhmen und Schlesien Religionsfreiheit gewährt, was ihnen eigene Kirchenbauten ermöglichten. Diese Urkunde (die einzige beglaubigte Abschrift befindet sich im Altbestand der Christian-Weise-Bibliothek in Zittau) hatte aber keinen sonderlich großen Wert, denn sie erreichte nicht, dass die Katholiken die Duldung protestantischer Kirchen zuließen. 


Mit der Zerstörung der Kirche der Böhmischen Brüder in Klostergrab (1617) und dem davon ursächlich ausgelösten Zweiten Prager Fenstersturz (1618) begann der Dreißigjährige Krieg, die größte Katastrophe, welche die Menschen in der Mitte Europa je heimgesucht hat. Er besiegelte auch das Ende der Protestanten in Böhmen, die verfolgt und in ihrer Religionsausübung behindert und in die Illegalität gedrängt wurden. Ihr berühmtester Bischof, der große Pädagoge Johann Amos Comenius (1592-1670), musste schließlich seine mährische Heimat verlassen. Er starb im Exil in Amsterdam. Erst mit dem Westfälischen Frieden von 1648 erhielten auch die böhmischen Protestanten die reichsrechtliche Gleichstellung mit den Lutheranern und Katholiken, was sich in einer Art privater Glaubensfreiheit widerspiegelte. 

Böhmische Brüder in Herrnhut

Aber die Gegenreformation hatte in Böhmen weiterhin Bestand, so dass es bis in die Mitte des 18. Jahrhunderts immer wieder zur Vertreibung protestantischer Glaubensanhänger aus Böhmen und Mähren kam, die formell erst mit dem Toleranzpatent von 1781, ausgestellt vom Habsburger Kaiser Joseph II., beendet wurde. Im Sinne dieser erzwungenen Auswanderungen gelangten auch einige Böhmische Brüder in das damalige oberlausitzische Berthelsdorf, wo sie unter der Protektion des Reichsgrafen Nikolaus Ludwig Graf von Zinzendorf (1700-1760) sich ab 1722 in dem neu gegründeten Ort „Herrnhut“ niedergelassen haben. Hier entstand schließlich die noch heute bekannte und weltweit durch ihre missionarische Tätigkeit berühmte Herrnhuter Brüder-Unität (Unitas Fratrum) mit mittlerweile über 1 Million „Geschwister“ (die aber gottseidank nicht alle in Herrnhut wohnen). 

Herrnhut - Blick vom Hutberg, um 1731 (Original im Heimatmuseum Herrnhut, Inv.-Nr. 190)

Bereits von Anfang an (genauer ab dem Jahr 1732) schwärmten ihre Mitglieder in die Welt aus, um ihren christlichen Glauben z. B. bei den Inuit auf Grönland oder bei den Ureinwohnern von Niederländisch-Guayana (heute Suriname), zu verkünden. Viele Herrnhuter Missionare verbanden dabei ihre missionarische Tätigkeit mit umfangreichen völkerkundlichen Studien, die auch heute noch einen großen Wert besitzen. Die Mitbringsel von ihren Reisen werden übrigens seit 1878 in einem Museum gesammelt (darunter auch Exponate von James Cooks 3. Reise) - dem „Völkerkundemuseum Herrnhut“. Was weniger bekannt sein dürfte ist, dass an der 

Gewöll- und Rupfungskunde

Herrnhuter Brüder-Unität ein Mann wirkte, der ein völlig neues Wissensgebiet im Bereich der Ornithologie begründete, die „Gewöll- und Rupfungskunde“. Ich meine Otto Uttendörfer (1870-1954). Seine Passion von jungen Jahren an war es, die Ernährungsgewohnheiten unsere einheimischen Greifvögel und Eulen zu erforschen. Greifvögel, welche Kleinvögel jagen (wie z. B. der Sperber oder der Wanderfalke), hinterlassen sogenannte „Rupfungen“ an ihrem „Rupfplatz“, also die Federn - die sie, da unverdaulich - von ihrer Jagdbeute durch den Vorgang des „rupfens“ entfernen mussten, bevor sie den Vogel fressen konnten. 


In dem man solche Rupfungen sammelt, sie einer bestimmten Greifvogelart zuordnet und auch die Artzugehörigkeit des Beutevogels anhand seiner Federn bestimmt, lassen sich Aussagen über dessen bevorzugte Beutetiere machen. Vögel dagegen, die ihre Beute - insbesondere Kleinsäuger - als Ganzes verschlingen, müssen die unverdaulichen Reste wieder herauswürgen. Diese Speiballen werden bei Greifvögeln und Eulen gewöhnlich „Gewölle“ genannt. Sie enthalten fast immer Skelettreste (z. B. Schädel) ihrer Beutetiere, anhand der die Art der Beutetiere identifiziert werden kann. Uttendörfer hat auch sie gesammelt und penibel analysiert. Zudem baute er ein deutschlandweites Netz von Beobachtern auf, die ihm Rupfungen und Gewölle bzw. deren Analysen zur Verfügung stellten. Aus deren Auswertung resultiert Uttendörfers Hauptwerk „Die Ernährung der Deutschen Raubvögel und Eulen“ (1939), in dem er auf über 400 Seiten seine Ergebnisse systematisch vorstellt. Nach dem Krieg wurde ihm aufgrund seiner Forschungen eine Vielzahl akademischer Ehren zuteil. Seine Methode der Gewöllanalyse wird heute von Biologen gern verwendet, um z. B. den Kleinsäugerbestand eines Gebietes auf eine ökonomische Art und Weise zu erforschen. Denn Greifvögel und Eulen sind bessere Jäger als Biologen Fallensteller. Erfreulicherweise nehmen tendenziell die Bestände der Greifvögel und Eulen – mit Ausnahmen – in den letzten Jahrzehnten langsam wieder zu, wie entsprechende Monitorprogramme beweisen. Insbesondere hat der Jagddruck (z. B. auf Sperber und Habicht) stark abgenommen und einige Arten, wie der Wanderfalke, konnten durch Auswilderungsprogramme in ihren angestammten Lebensräumen wieder etabliert werden. Ich denke hier besonders an die Sächsisch-Böhmische Schweiz, wo man ihn seit einigen Jahren wieder beobachten kann. Er hat übrigens mittlerweile auch die Straßenschluchten mancher Großstädte als Brut- und Jagdgebiet (verwilderte Tauben) entdeckt – so im Zentrum von Frankfurt am Main und sogar in Berlin, Alexanderplatz. Dabei sah es Anfang der 1960er Jahre in Deutschland gar nicht gut für den größten und schnellsten einheimischen Falken aus. Die dramatische Ausdünnung des Bestandes lag dabei weniger an einer illegalen Nestlingsentnahme oder einer Lebensraumzerstörung, sondern an vermehrt ausbleibenden Bruterfolgen. Die Ornithologen, welche ehrenamtlich die Brutplätze überwachten um Störungen und Nestplünderungen auszuschließen, stellten fest, dass häufig die Eier während des Bebrütens zerbrachen. Ihre Schalen waren dünner und brüchiger geworden. 

Dichlordiphenyltrichlorethan (DDT) und Vogelwelt

Der Grund dafür war ein seit den 1940er Jahren immer stärker in der Land- und Fortwirtschaft eingesetztes Insektizid mit dem chemischen Wirkstoff Dichlordiphenyltrichlorethan, welches eher unter seinem Trivialnamen DDT bekannt ist. 


Auf den ersten Blick hatte diese seit 1874 bekannte Chemikalie eine ganz ideale insektizide Wirkung. Geringste Mengen töteten Insekten ab, während es für Warmblütler und für Pflanzen keine oder nur in höheren Dosen eine geringe Giftwirkung zeigte. Außerdem lässt sich Dichlordiphenyltrichlorethan relativ leicht und äußerst billig herstellen. Für die Entdeckung der insektiziden Wirkung von DDT (1939) wurde der Schweizer Chemiker Paul Hermann Müller (1899-1965) im Jahre 1948 mit dem Nobelpreis für Medizin ausgezeichnet. Zu dieser Zeit war DDT „das“ Insektizid der Wahl, mit welchen man selbst die Köpfe von Kindern einpuderte, wenn sich in deren Haarschopf Kopfläuse eingenistet hatten. Der intensive Einsatz von DDT zur Schädlingsbekämpfung (insbesondere in den USA) zeigte aber schnell Nebenwirkungen, die man nicht bedacht hat. DDT ist eine äußerst stabile Verbindung, die in der Natur kaum abgebaut wird und sich deshalb im Boden und im Wasser anreichern kann. Viel bedenklicher war jedoch der Umstand, dass eine Anreicherung auch über die Nahrungskette erfolgt. Besonders insektenfressende Vögel und in Folge „Vögel“ fressende Greifvögel waren davon betroffen. Ab einer gewissen Konzentration wirkt es nämlich als Enzym, welches die Calziumeinlagerung in die Eierschalen der Vögel hemmt. Die Eischalen werden brüchiger und Bruterfolge bleiben aus. Die Folge war, dass die Ornithologen in den USA bereits Anfang der 1950er Jahre einen dramatischen Rückgang von Greifvögeln wie den Wanderfalken und sogar dem Weißkopfseeadler, dem Wappentier der USA, bemerkten. Schnell erkannte man eine Korrelation der negativen Bestandsentwicklung mit dem stetig ansteigenden Einsatz von DDT-haltigen Pestiziden. Auch in Europa zeigten sich die gleichen alarmierenden Symptome. Die negativen Auswirkungen waren aber nicht nur auf Vögel begrenzt. Auch Fische und Säugetiere wie z. B. Robben waren davon betroffen. Auch im Menschen sammelte sich nach und nach DDT an und begann dessen Gesundheit zu gefährden. Das brachte die Umweltschützer auf die Palme, und so entstand die erste organisierte Ökologiebewegung in den USA, die vehement ein Verbot des Einsatzes von DDT und anderen chemischen Substanzen forderten. 

Der stumme Frühling

Und genau zu dieser Zeit erschien ein Buch einer damals noch recht unbekannten Biologin mit Namen Rachel Carson (1907-1964), welches schnell extrem populär wurde und somit auch von der Politik nicht ignoriert werden konnte: „Der stumme Frühling“ (Silent Spring). Es erschien 1962 und sollte zu einem der einflussreichsten Bücher des 20. Jahrhunderts werden. Darin stellt sie wohlbegründet einen Zusammenhang zwischen dem steigenden DDT-Einsatz und den sich daraus ergebenden Konsequenzen her - wie beispielsweise einen Frühling, in dem es wegen fehlender Vögel keinen Vogelgesang mehr gibt. Es ist klar, dass dieses Buch von der chemischen Industrie und ihrer Lobbyisten sowie einer Vielzahl von Landwirten nicht gerade mit Begeisterung aufgenommen wurde. Und so setzte schnell eine Gegenkampagne ein mit den sattsam bekannten und auch heute noch mit gleicher Vehemenz benutzten Methoden, die da sind: Einschüchterung des Verlages durch Drohen mit rechtlichen Konsequenzen wie beachtlichen Schadenersatzforderungen, Absprechen der fachlichen Kompetenz der Autorin, Vermutung einer durchs Ausland gesteuerten Verschwörung gegen die amerikanische Lebensmittelindustrie, Verdächtigung „kommunistischer Umtriebe“ der Autorin, Behauptung, dass ohne DDT „Käfer“ und „Raupen“ den Amerikanern die Lebensmittel wegfressen würden, Veröffentlichung kruder Gegenpositionen (wie z. B. „The desolate year“, in dem eine Welt ohne Pestizide in den düstersten Farben gemalt wird), Schalten von Medienkampagnen, welche zeigen, wie wichtig und wie harmlos Insektenvertilgungsmittel sind etc. pp. Dabei übersah man geflissentlich, dass Rachel Carson nicht das Verbot von DDT gefordert hatte, sondern lediglich einen beschränkten und wohlüberlegten Einsatz (insbesondere was die Langzeitfolgen betrifft) von chemischen Stoffen in der Land- und Forstwirtschaft anmahnte. Denn ihr waren durchaus die Erfolge bewusst, die man mit Hilfe von DDT beispielsweise bei der Eindämmung der Malaria (durch Mückenbekämpfung) in Afrika und Südostasien erzielt hat. Letztendlich konnten sich dann aber doch die Mahner und Umweltaktivisten durchsetzen, da sie - auch dank Rachel Carsons - die besseren Argumente hatten. Und wie hätte es erst ausgesehen, wenn das Wappentier der USA, der Weiß-kopfseeadler, ausgestorben wäre. Und so trat 1972 ein absolutes DDT-Verbot in Kraft, dem auch viele (mittlerweile alle) europäischen Staaten folgten. Diese Ereignisse um das DDT herum führten auch zu einer politischen Neubewertung der Risiken, welche chemische Produkte inhärent in sich tragen. Der Einsatz von Pestiziden war jedenfalls ein großes Experiment, bei dem sich erst im Nachhinein die negativen Folgen bemerkbar machten. Und als man 1965 zum ersten Mal DDT in den Körpern von Pinguinen auf Antarktika nachweisen konnte, wurde es offensichtlich, dass sich Chemikalien nicht allein auf das Areal ihrer Anwendung beschränken lassen, sondern - wenn sie langzeitstabil sind - sich letztlich global ausbreiten. 

Ozonzerstörung durch FCKW

Ein weiteres instruktives Beispiel bildet die Stoffgruppe der Fluorchlorkohlenwasserstoffe, besser unter ihrem Kürzel FCKW bekannt. Sie ist rein künstlicher Natur und wurde speziell als ideales Kühlmedium für Kühlschränke entwickelt (ihr Siedepunkt lässt sich über ihre Zusammensetzung einstellen). Außerdem nahm man an, dass FCKW’s chemisch weitgehend inert und deshalb keine Umweltprobleme zu erwarten sind. Sie wurden seit den 1930er Jahren in riesiger Menge produziert und dabei auch zwangsläufig in die Umwelt entlassen. Was man aber nicht bedacht hat, war, dass die Eigenschaft der „Inertheit“ (d. h. der Stoff ist chemisch stabil und geht keine Reaktionen mit anderen Stoffen der Umgebung ein) nur für die Troposphäre gilt. Gelangen dagegen FCKW-Moleküle in die Stratosphäre, dann können sie durch die UV-Strahlung der Sonne gespalten werden, wobei die dabei entstehenden „Produkte“ massiv Einfluss auf die Photochemie dieser Atmosphärenschicht nehmen. Er äußert sich in einer Zerstörung der fragilen, uns vor der UV-Strahlung der Sonne schützenden Ozonschicht. 


Ozonloch...

Auch hier musste erst ein „globales“ Experiment stattfinden, bis man sich durchringen konnte, diese Stoffgruppe wegen ihrer fatalen Wirkung auf die Umwelt (Stichwort „Ozonloch“) aus dem Verkehr zu ziehen (international ab dem Jahr 2000). DDT und FCKW’s sind alles künstliche Stoffe, die erst langfristig zur Gefahr werden und deshalb in der Bevölkerung erst einmal wenig Beachtung finden. 

Katastrophale Chemieunfälle in Seveso und Bhopal

Anders sieht es mit großen Chemieunfällen wie in Seveso (1976) oder Bhopal (1984) aus, letzterer mit über 3800 Toten und noch mehr Verletzten. Sie führten letztendlich recht schnell zu einer Neuorientierung der Risikobewertung chemischer Anlagen und Stoffe, die sich in einer mehr stoffbezogenen Gesetzgebung, was Sicherheitsanforderungen und Umweltverträglichkeit betrifft, nie-derschlugen. Nicht nur der zu erwartende „Nutzen“ eines chemischen Produkts spielte heute bei entsprechenden Zulassungsverfahren eine Rolle, sondern noch viel mehr dessen nachweispflichtige Umweltverträglichkeit - verbunden mit einer deutlichen Verschärfung (inklusive Kontrollmechanismen) der Sicherheitsanforderungen bei deren Produktion und Anwendung. Die rasante Entwicklung der chemischen Industrie und die genauso rasante Entwicklung und Synthese neuer Stoffe haben es notwendig gemacht im Detail zu erforschen, wie sich diese Stoffe, einmal frei-gesetzt, in der freien Natur verhalten und welche Wirkungen sie auf Lebewesen entfalten. 

Ökotoxikologie

Zu diesem Zweck wurde gegen Ende der 1960er Jahren das interdisziplinäre Forschungsgebiet der Umweltchemie bzw. der Ökotoxikologie etabliert. Man schätzt, dass mittlerweile zwischen 6 und 7 Millionen unterschiedliche chemische Verbindungen bekannt sind, wobei diese Zahl durch mehr oder weniger gezielte Synthesen und Entdeckungen (insbesondere in der Biochemie) stetig anwächst. Ein Bruchteil davon wird in der chemischen Industrie verwendet und gelangt schließlich als Pestizide, Haushaltschemikalien, Toilettenartikel, Nahrungsmittelzusätze, als Arzneimittel sowie als Lösungs- und Desinfektionsmittel (um nur ein paar Beispiele zu nennen) in die Umwelt. Im Idealfall werden sie dort abgebaut. Es gibt aber auch Stoffe, die langzeitstabil sind, sich wie DDT in Nahrungsketten anreichern und letztendlich im menschlichen Körper eine gesundheitsgefährdende Wirkung (z. B. als Karzinogen) entfalten. 

Das Sevesogift Dioxin

Unter allen Umweltgiften hat insbesondere das Dioxin, genauer 2,3,7,8-Tetrachlordibenzodioxin (TCDD), einen gewissen Bekanntheitsgrad erlangt. Es ist zwar selbst ohne wirtschaftlichen Nutzen, entsteht aber bei bestimmten Verbrennungsprozessen aus Halogenverbindungen bzw. wird als Zwischenprodukt in der chemischen Industrie in größerer Menge hergestellt. Dieser Stoff wäre auch heute noch unter Nichtchemikern kaum bekannt, hätte er nicht einen eingängigen Trivialnamen und wäre er nicht am 10. Juli 1976 bei einem Chemie-Unfall im Bereich der Gemeinde Seveso in Norditalien in großer Menge freigesetzt worden. Seitdem wird das Dioxin TCDD auch gern als „Sevesogift“ bezeichnet. TCDD ist aber auch der Wirkstoff des Entlaubungsmittels „Agent Orange“, welches die Amerikaner in den Jahren des Vietnamkrieges (seit 1965) in großer Menge über dem vietnamesischen Dschungel versprüht hatten. 


Die Langzeitwirkungen dieses Aktes der chemischen Kriegsführung (obwohl in diesem Fall der Terminus nicht international anerkannt ist, denn es handelte sich ja „nur“ um ein Herbizid) sind noch heute überall in Vietnam präsent: Fehlbildungen bei Kindern, Immunschwäche, Krebserkrankungen. Doch zurück zu Seveso, der kleinen italienischen Gemeinde in der Lombardei, dessen Name heute niemand kennen würde, wäre dort nicht das bereits genannte Unglück passiert. In der dortigen Chemiefabrik, in der Herbizide hergestellt wurden, kam es durch eine unglückliche Verkettung von Umständen bei der Herstellung von 2,4,5-Trichlorphenoxyessigsäure aus 1,3,4,6- Tetrachlorbenzen zu einer unkontrollierten Reaktion, die mit einer Temperatur- und Druckerhöhung in der Produktionsanlage einherging. Dabei erfolgte eine teilweise Dimerisierung des Trichlorphenols zum hochgiftigen TCDD, bis schließlich der Reaktionskessel explodierte und sich das Dioxin in Form einer Wolke weiträumig über die Umgebung verbreitete. Was dann folgte, war ein Akt der Verschleierung und der anfänglichen Beschwichtigung der Bewohner der Umgebung, die aber schnell die Giftwirkung des Dioxins in Form einer mehr oder weniger akuten Chlorakne zu spüren bekamen - und die Firma schließlich Farbe bekennen musste. Auch setzte ein bedrohliches Massensterben bei den Nutztieren ein, die Dioxin-verseuchtes Gras gefressen hatten. Außerdem verwelkten und verdorrten die Blätter von Bäumen und Sträuchern am Unglücksort. Da bereits 1 Mikrogramm TCDD pro Kilogramm zu einer schweren Dioxinvergiftung führt und sich dieses Gift nur sehr langsam (unter Einwirkung von Sonnenlicht) abbaut, musste man um Soveso herum zuerst eine Evakuierung der Bevölkerung und anschließend eine großflächige Dekontamination durchführen. Dazu wurde u. a. der Erdboden abgetragen und auf spezielle Sondermülldeponien verbracht. Das alles hatte natürlich auch noch ein gerichtliches Nachspiel und weltweit wurden die Gesetze, Dioxin betreffend, verschärft, um zukünftig solche Katastrophen auszuschließen. Auch wurde die Analytik weiter verbessert, um auch kleinste Mengen dieses Giftstoffes in der Umwelt nachweisen zu können. So lassen sich heute wenige Nanogramm pro Kilogramm Körpersubstanz sicher messen (1 ppt (parts per trillion) = 1 ng/kg - „trillion“ entspricht unserer „Billion“). Um diese winzige Stoffmenge sich anschaulich vorstellen zu können, vielleicht folgender Vergleich: Wenn man den Erdäquator mit 40.000 km angibt, dann entspricht ein ppt davon einer Länge von 0,04 Millimeter. Wenn man mit solch einer Genauigkeit Analytik betreibt, dann stellt man fest, das TCDD quasi überall vorhanden ist: 3 ppt im Ruß der KFZ-Auspuffe, 40 ppt im Straßenstaub, 2 ppt im Zigarettenrauch usw. Besonders hohe Konzentrationen kann man in der Nähe von Müllverbrennungsanlagen messen, ja sie gelten mittlerweile als richtige Dioxin-Schleudern (bis zu 30 ppb - parts per billion - „billion“ entspricht unserer „Milliarde“), weshalb sie auch einer besonderen Aufsicht unterliegen. Das Problem liegt hier wieder in der Langzeitstabilität des Stoffs und dessen Anreicherung in Umwelt und Mensch. Während man das klinische Bild einer akuten TCDD-Vergiftung sehr gut kennt, existieren über die Auswirkungen geringster Mengen nur wenige gesicherte Erkenntnisse. Demzufolge sollte man alles vermeiden, um Dioxine in die Umwelt zu entlassen. Deshalb müssen auch Müllverbrennungsanlagen gesetzlich vorgeschrieben bei höheren Temperaturen arbeiten, als es die Betreiber aus ökonomischen Gründen gerne hätten. Der Einsatz von „Chemie“ in der Landwirtschaft hat seit der Verfügbarkeit von Kunstdünger und von Pestiziden die Erträge regelrecht explodieren lassen. Dadurch konnten vielen Millionen Menschen die Lebensgrundlage gesichert werden. Insektizide helfen von Insekten übertragene Krankheiten wie die berüchtigte Malaria oder die Schlafkrankheit einzudämmen. Das alles wird jedoch erkauft mit einer zunehmenden Belastung von Lebensmitteln mit unerwünschten Stoffen. Die durchaus begründete Angst davor sowie ein erwachtes „ökologisches Bewusstsein“ bei den Wohlstandsbürgern der Industrienationen führten zu den Präfixen „Bio“ und „Öko“ vor Lebensmitteln, die durch „ökologische Landwirtschaftsformen“ erzeugt wurden. Dabei versteht man unter „ökologischer Landwirtschaft“ eine besonders naturschonende Landwirtschaft, die sich durch wenig bis gar keinen Einsatz von Kunstdüngern und Pestiziden sowie durch die Berücksichtigung von Umwelt- und Landschaftsschutzbelangen auszeichnet. Diese Art von Landwirtschaft ist natürlich sehr zu begrüßen. Trotzdem muss darauf hingewiesen werden, dass weltweit weniger als 1% der verfügbaren landwirtschaftlichen Nutzflächen in dessen Sinne bewirtschaftet werden – und eine wesentliche Vergrößerung ist aufgrund der stetig steigenden Bevölkerung gerade in den Entwicklungsländern auch nicht zu erwarten. So traurig es auch ist, „Bio“ und „Öko“ ist nur eine Marktnische, die sich in ihrer reinen Form nur in Wohlstandsgesellschaften etablieren kann. Die größte Zeit ihrer Existenz hat sich die Menschheit um „Öko“, wie wir heute sagen würden, überhaupt nicht geschert. 

Umweltschutz – ein Gedanke des 20. Jahrhunderts

Die Idee, dass es die Umwelt zu schützen und vor übermäßiger Beanspruchung zu bewahren gilt, ist ein Gedanke des 20. Jahrhunderts. Im Römischen Reich wurden riesige Wälder abgeholzt. Die wenigen mächtigen Zedern im Libanon sind ein trauriger Rest aus jener Zeit, als die Phönizier daraus ihre Schiffe bauten. Die Sumerer hatten Jahrhunderte zuvor schon ihr blühendes Land zwischen den Strömen Euphrat und Tigris in eine Salzwüste verwandelt, weil sie die Folgen ihrer Tätigkeit (Bewässerung) nicht vorhersehen konnten. Zu Beginn des 9. Jahrhunderts (n. Chr.) brach das Maya-Reich zusammen – wahrscheinlich aufgrund einer selbstverschuldeten Umweltkatastrophe (induzierte Dürren durch Rodung der Urwälder, um Landwirtschaft auf wenig geeigneten Böden bei steigender Bevölkerungszahl betreiben zu können). Mit dem Beginn der industriellen Revolution im 19. Jahrhundert verschwanden die Wälder Britanniens in den Öfen der Dampfmaschinen und Metallhütten. Und zur Zeit Goethes waren der Harz und der Schwarzwald weitgehend von Bäumen befreit. Man sagt immer, der Mensch ist in der Lage aus der Geschichte zu lernen. Aber das ist ein Irrtum, wie viele Beispiele zeigen. Die Macht des Faktischen macht in der Regel alle individuellen Anstrengungen des Natur- und Umweltschutzes wieder zunichte. Bitterste Armut und noch mehr die Profitgier verschlingen noch heute Minute um Minute einige Dutzend Hektar tropischen Re-genwaldes. Die Akteure interessiert es nicht oder sie wissen es nicht oder sie wollen es nicht wahrhaben, dass sie damit langfristig eine der wichtigsten Lebensgrundlagen der Menschen zerstören. In diesem Zusammenhang erscheint es durchaus bemerkenswert, dass der Mensch dieses Risiko erkennt und auch quantifiziert (was seiner Intelligenz zuzuschreiben ist). Genauso bemerkenswert ist, dass er wenig oder nichts dafür tut, dieses Risiko zumindest ein wenig zu verkleinern (was seiner Unvernunft zuzuschreiben ist). Lokal mag die Vernunft siegen, global gesehen überwiegen – angetrieben durch eine immer mehr wachsende Zahl von Menschen auf diesem Planeten – jedoch noch die destruktiven Kräfte. Dass der Mensch sich die Natur „untertan“ macht, ist nichts weiter als eine Mär. Er wandelt nur auf einem schmalen Grat der Natur und erhält von ihr keine Vorzugsbehandlung. 

Der Mensch als ultimative Naturkatastrophe

Seine weitere Geschichte ist genauso unsicher wie die eines jeden anderen Lebewesens auf der Erde. Oder wie es der österreichische Soziobiologe Franz M. Wuketits einmal treffend ausgedrückt hat: 

Der Mensch ist nicht nur Verursacher großer Naturkatastrophen, sondern stellt genaugenommen selbst die größte Naturkatastrophe dar, welche den Planeten gegenwärtig heimsucht.“ 

Die Aussterberaten von Pflanzen und Tieren übersteigen dabei mittlerweile schon diejenigen einiger der großen Massenextinktionen der Erdgeschichte. Der Mensch ist eine „Großverbraucherart“. Er hat sich global ausgebreitet, benötigt mehr Nahrung und mehr Fläche und mehr Energie als irgendeine andere Art und vermindert aufgrund seiner Tätigkeit die Diversität des Lebens nachhaltig (um mal ein beliebtes Wort der Ökoszene zu verwenden) – was ihm eines Tages zum Verhängnis werden wird. Und trotzdem ist uns dieses unbestreitbare Faktum kaum bewusst. Der Ökologe R. Kinzelbach hat das in seinem bereits 1989 erschienenen Buch „Ökologie – Naturschutz – Umweltschutz“ meiner Ansicht nach äußerst treffend charakterisiert: 

In den Industriestaaten haben die meisten Einwohner nicht unbedingt das Gefühl, dass sie oder ihre Gesellschaft prinzipiell am Ende sind. Das steht nur in der Zeitung. Hätten sie nicht – dank der abendländischen Kritikfähigkeit und der hocharbeitsteiligen Gesellschaftsstruktur – ihre Reisenden, Berichterstatter, Kommentatoren, Wissenschaftler, Gurus und Panikmacher, kurzum jenen pluralistischen Sauerteig unruhiger Sensoren, so könnten sie, beschwingt von den Statements ihrer Lenker von Ökonomie und Staat, sogar meinen, die Welt sei in Ordnung.“ 

Wenn man mit klarem Verstand die gegenwärtigen Entwicklungen verfolgt, dann bekommt man ein zwiespältiges Gefühl. Die technologische Entwicklung wird mit großen Schritten vorangetrieben. In naher Zukunft werden Autos völlig autonom über unsere Straßen rollen. OLED-Displays sind mittlerweile so dünn, dass sie sich bald wie Tapeten an die Wand kleben lassen. Immer mehr Menschen sind über soziale Netzwerke miteinander verbunden. Unsere in das Weltall geschossenen Forschungssonden haben das gesamte Sonnensystem in Augenschein genommen und sogar den Zwergplaneten Pluto, quasi einen Außenposten unseres Planetensystems, passiert. Nichts scheint mehr unmöglich zu sein. Was vor hundert Jahren noch ein „Wunder“ gewesen wäre, ist heute zum Objekt unserer Begierde geworden, das es zu besitzen gilt. Unglücke und Katastrophen geschehen immer nur weit weg und betreffen uns nicht (oder nur selten). Es ist so etwas wie die Ruhe vor dem Sturm. 

Der Geschützdonner ist schon zu hören

Dabei zeigen sich erste dunkle Wolken am Horizont. Immer mehr Armuts- Kriegs- und Glaubensflüchtlinge drängen sich an den Grenzen der wohlhabenden Staaten und begehren Einlass. Die Bevölkerungsexplosion in den Schwellenländern hält an, während die Geburtenrate in den entwickelten Gesellschaften eher rückläufig ist. 

Rechts Österreich - links Deutschland

Um hegemoniale Ansprüche aufrechtzuerhalten oder einzufordern, werden von den Großmächten Nebenkriegsschauplätze eröffnet, was aber immer öfters ins Auge geht, wie das Beispiel „Islamischer Staat“ zeigt. Moderne Technik und archaische Ideologie bilden dort eine Melange, die für die Zukunft nichts Gutes erwarten lassen. Der Verteilungskampf um Einfluss, Rohstoffe und Energiequellen ist längst im vollen Gange und wir stehen mittendrin. 

Pandemien

Die Welt ist mittlerweile verkehrstechnisch so vernetzt, dass neu entstehende Infektionskrankheiten mit dem Potential der Spani-schen Grippe, die zur Zeit des Endes des ersten Weltkrieges wütete (1918-1920) und weltweit mehr Tote gefordert hat als die eigentlichen Kampfhandlungen (man schätzt, zwischen 25 und 50 Millionen Tote), eine echte Gefahr darstellen, die gewöhnlich völlig unterschätzt wird.
...
Hier geht es weiter ...





Keine Kommentare:

Kommentar veröffentlichen

Blogverzeichnis - Blog Verzeichnis bloggerei.de Interessante Blogs Blog-Webkatalog.de - das Blogverzeichnis