... Seite 432
Dabei ist zu erwähnen, das seit 1980 auch organische Supraleiter bekannt sind und auch die Entdeckung der Fullerene, eines neuen Kohlenstoff-Allotropes (Allotrope sind spezielle Strukturformen eines bestimmten Feststoffs wie Graphit, Diamant oder Graphen), haben zur Entdeckung neuer supraleitender Materialien geführt. Ihr gemeinsamer „Nachteil“ für den Ingenieur ist jedoch ihre geringe Sprungtemperatur.
Magnetresonanzspintomographie
Supraleitende Elektromagneten haben, und das wissen die Wenigsten, zu einer Revolution in der Medizintechnik geführt - zur „Röhre“ - wie volkstümlich ein Magnetresonanzspintomograph genannt wird.
Damit können, ohne dass man einen Patienten explizit aufschneiden muss (was gewöhnlich von ihm nachvollziehbar als unangenehm empfunden wird), dessen innere Organe in Form von Schnittbildern sichtbar und damit diagnostizierbar gemacht werden.
Auch dieses Gerät ist ein Anwendungsfall der Quantenphysik und wäre ohne deren Erkenntnisse nicht realisierbar. Es basiert auf einen Effekt, den man Kernspinresonanz nennt und der darauf beruht, dass Atomkerne elektromagnetische Wechselfelder absorbieren und reemittieren können. Dieses Verfahren (kurz MRT - Magnetresonanztomographie genannt) nutzt die Kombination eines starken, von supraleitenden Spulen erzeugten Magnetfeldes mit einem Hochfrequenz-Impuls zur Anregung der im Körpergewebe in großer Zahl vorhandenen Wasserstoffkerne aus, um aus der Relaxationsstrahlung Protonendichten und schließlich mittels eines Computers Gewebeschnittbilder ableiten zu können. Untersuchungen mittels MRT sind im Gegensatz zu Röntgenuntersuchungen für den Patienten praktisch unschädlich, soweit er keine Metall-Piercings (Magnetfeld!) oder einen Herzschrittmacher sein eigen nennt...
Computertomographie
Mit der MRT verwandt ist die Computertomographie CT, die jedoch mit Röntgenstrahlung arbeitet. Auch hier handelt es sich um ein bildgebendes Verfahren, mit dem sich Körperschnitte berechnen lassen. Dazu wird mittels eines Computerprogramms aus einer großen Zahl von aus verschiedenen Richtungen aufgenommenen Röntgenbildern ein dreidimensionales Bild, das Computertomogramm, errechnet.
Dabei nutzt man aus, dass Röntgenstrahlung von verschiedenen Gewebetypen unterschiedlich stark absorbiert wird. Indem man das Absorptionsvermögen nicht nur in Projektion misst (wie es bei einer normalen Röntgenaufnahme der Fall ist), sondern deren Absorption aus vielen verschiedenen Durchleuchtungsrichtungen bestimmt, lässt sich unterscheiden, ob die Absorption durch einen räumlich begrenzten Dichteunterschied (Organ) oder durch eine größere Schichtdicke hervorgerufen wird. Mathematisch hat man es in diesem Fall mit einem sogenannten inversen Problem zu tun, bei dem man aus der räumlichen Verteilung der Röntgenintensitäten außerhalb des Körpers auf die inneren Strukturen schließt, in denen die Strahlung absorbiert wird. Die Stichworte für weitergehende Studien sind hier Radontransformation und Fourieranalyse. CT-Geräte und, etwas seltener, MRT-Geräte, gehören heute trotz ihres hohen Anschaffungspreises zur Grundausstattung einer jeden Universitätsklinik und werden dort auch weitgehend ausgelastet.
Aufnahme: Spektrum der Wissenschaft
Wenn es aber einmal mit der Auslastung hapert, werden auch schon einmal eine Moorleiche, eine Gletschermumie („Ötzi“) oder die mumifizierten Reste einer ehemals mächtigen Persönlichkeit aus dem alten Ägypten, Pharao genannt, in die „Röhre“ geschoben, um zu schauen, welche Zipperlein ihn einst wohl geplagt haben mögen.
Pharaonenmord – endlich aufgeklärt
Auch alte Mordfälle lassen sich computertomographisch nachbearbeiten, wie der schauerliche Mord an Ramses III. zeigt, der von 1221 v. Chr. bis 1156 v. Chr. lebte, wobei er, wie überlieferte „Gerichtsakten“ beweisen (sie liegen heute im Ägyptischen Museum von Turin), sein Leben im Rahmen einer von seiner Nebenfrau Teje und seinem Sohn Pentawer angezettelten Revolte auf unsanfte Weise verlor.
„Unsanft“ bedeutet in diesem Fall, dass man ihm, wie man nun seit 2012 definitiv weiß, einen 7 Zentimeter tiefen Schnitt in den Hals zugefügt hat. Jedoch dank dessen, dass es im alten Ägypten üblich war, einen verstorbenen Herrscher in Form einer Mumie zu konservieren, lässt sich dieser Mord nach fast 3000 Jahren noch einmal forensisch aufrollen. Die guterhaltene Mumie selbst wurde 1881 geborgen und befindet sich heute im Ägyptischen Museum in Kairo. Dort wurde sie auch computertomographisch untersucht, bei der der erwähnte, unter einem Halstuch (das man nicht entfernen wollte) verborgene Schnitt, ausgeführt von einem scharfen Messer in der Hand eines Meuchelmörders, entdeckt wurde. Damit war bewiesen, dass dieser berühmte Pharao der 21. Dynastie, der sich zu Lebzeiten mit den „Seevölker-Attacken“ herumplagen musste, wirklich einer Palastrevolte (genauer einer Haremsverschwörung) zum Opfer gefallen war. Andererseits zeigten die Aufnahmen aber auch, dass es zum Todeszeitpunkt eh nicht gerade gut um den Gesundheitszustand des Pharaos gestanden hatte. Er war nämlich todkrank und litt u. a. massiv unter Arteriosklerose. Teje und Pentawer hätten vielleicht etwas geduldiger sein sollen. So wurde das Komplott schon kurz nach dem Mord aufgeklärt und der Prinz Pentawer nach einem Gerichtsprozess, wie damals üblich, zum Selbstmord genötigt. Auch seine, im Gegensatz zu Ramses III. nur schlampig ausgeführte Mumie, konnte mittlerweile identifiziert werden, wobei die moderne Genetik dabei maßgeblich mitgeholfen hat. Denn auch Mumien besitzen einen unverwechselbaren genetischen Fingerabdruck.
Seismische Tomographie
Doch zurück zur Computertomographie. Anstelle von elektromagnetischen Wellen (zu denen auch die Röntgenstrahlung gehört) lassen sich auch seismische, also „Erdbebenwellen“, für computertomographische Arbeiten nutzen. Nur lassen sich hiermit zwar keine „Organe“, dafür aber Strukturen tief in der Erdkruste und im Erdmantel aufspüren und dreidimensional abbilden. Die von einem Erdbebenherd (Epizentrum) ausgehenden seismischen Wellen durchlaufen die geologischen Formationen entsprechend ihrer stofflichen Zusammensetzung (Dichte) und Temperatur unterschiedlich schnell.
Nach welcher Zeit sie bei einem Seismometer an der Erdoberfläche ankommen, hängt konkret vom Weg ab, den sie durch das Erdinnere nehmen, wobei sich die Ausbreitungsgeschwindigkeit in Abhängigkeit der elastischen Parameter der Gesteine (die wiederum temperaturabhängig sind) entlang des Weges verändert. Wie man sich leicht überlegen kann, ist die Zeit vom Epizentrum bis zum Seismometer davon abhängig, in welcher Richtung sie beispielsweise eine räumlich strukturierte Temperaturinhomogenität (z. B. eine Magmakammer) durchläuft. Indem man diese Laufzeit für seismische Wellen, die auf verschiedenen Wegen die Erde durchlaufen, bestimmt, kann man - genauso wie bei der Computertomographie oder MRT - durch Lösung eines „inversen Problems“ die räumliche Struktur einer stofflichen oder thermischen Instabilität im Erdinneren berechnen und bildmäßig darstellen. Oder anders ausgedrückt, die seismische Tomographie versucht aus den an verschiedenen Messstationen bestimmten Laufzeiten des Wellenfeldes auf die Geschwindigkeitsverteilung des durchlaufenen Untergrundes zurückzuschließen um daraus wiederum die geometrischen Parameter der entsprechenden Störstrukturen zu ermitteln. Fast alle Parameter, von denen die Geschwindigkeit einer Erdbebenwelle abhängt, sind temperaturabhängig. Deshalb kann man in diesem Zusammenhang für die relativen Begriffe „schnell“ und „langsam“ auch die Begriffe „kalt“ und „heiß“ verwenden, um die von diesen Wellen durchlaufenen Bereiche im Erdinneren näher zu beschreiben. Vergleichsobjekt ist dabei immer ein Erdmodell, welches die mittlere seismische Geschwindigkeit als Funktion der Tiefe angibt. Eine Abweichung davon, also eine „Anomalie“, bedeutet dann in dem Fall, wenn die Wellengeschwindigkeit geringer ist als im Modell vorgegeben, dass die Region wärmer und die Festigkeit der Gesteine geringer sein muss als im Normalfall. Natürlich gilt dann auch die umgekehrte Argumentation, wenn die Wellengeschwindigkeiten in der gleichen Tiefe signifikant größer sind als im Modell. Wenn man aus der Beobachtung von „Wirkungen“ (z. B. Schattenbilder eines Objektes aus verschiedenen Projektionsrichtungen) auf deren Ursache (z. B. die Form des dazugehörigen geometrischen Objekts) schließen möchte, muss man, mathematisch gesprochen, ein „inverses Problem“ lösen. Im Fall der seismischen Tomographie sind die Ursachen lokale Temperaturschwankungen im Inneren der Erde (die sich, wie bereits gesagt, in einer Änderung der Geschwindigkeit seismischer Wellen niederschlagen) und die Wirkungen sind die von einem seismischen Modell abweichenden Ankunftszeiten von Erdbebenwellen an möglichst vielen verschiedenen Stellen der Erdoberfläche.
Magmakammer unter dem Yellowstone-Nationalpatrk (Bild: USGS)
Ein inverses Problem besteht also darin, aus indirekten Beobachtungen (in diesem Fall sogenannte Laufzeitresiduen) auf die diese Beobachtungen bedingenden physikalischen bzw. geometrischen Eigenschaften (z. B. die Größe und Form einer Magmakammer) zurückzuschließen. Das dazugehörige „direkte Problem“ würde dagegen darin bestehen, ausgehend von einer modellmäßig vorgegebenen Magmakammer die Wege möglichst vieler seismischer Wellen rechnerisch zu verfolgen, um die Eintreffzeiten an bestimmten Punkten der Erdoberfläche zu berechnen – ein Verfahren, das an das Raytracing der Computergrafiker erinnert. Mathematisch handelt es sich um eine sehr anspruchsvolle Aufgabenstellung, die schon aufgrund der riesigen Menge von Messdaten, die verarbeitet werden müssen, den Einsatz leistungsfähiger Computer erfordert. Grundlage dafür ist die Umkehrung der sogenannten Radon-Transformation, die numerisch mittels schneller Fouriertransformationen sehr gut gelingt. Die detailreichen Abbildungen von inneren Organen, welche moderne Computer- und MRT-Tomographen zu liefern in der Lage sind, beweisen das. Die seismische Tomographie ist heute eine der modernsten indirekten geophysikalischen Bildgebungsverfahren, mit denen quasi ein direkter dreidimensionaler Blick in das Erdinnere gelingt. Zum ersten Mal in den 1970er Jahren angewendet, verdankt man ihr wichtige Einblicke in die Struktur des Erdkörpers und in die Funktionsweise der Plattentektonik. Sie wird mittlerweile in allen Größenskalen, so z. B. auch bei der Suche nach Erdöl- und Erdgaslagerstätten mittels künstlicher Beben, eingesetzt. Die Geophysiker nennen dieses spezielle geologische Erkundungsverfahren „Lokalbebentomographie“. Es ist schon interessant, wie jeweils das Gleiche mathematische Verfahren helfen kann, Tumore im menschlichen Körper, forensische Spuren in Mumien und die Größe und Gestalt von Magmakammern von Supervulkanen sichtbar zu machen. Hier zeigt sich wie wichtig die Mathematik als Grundlagenwissenschaft ist.
Johann Radon aus Tetschen an der Elbe
Als Johann Radon (1887-1956, er stammte aus Tetschen an der Elbe) im Jahre 1917 seinen Artikel „Über die Bestimmung von Funktionen durch ihre Integralwerte längs gewisser Mannigfaltigkeiten“ in den „…Verhandlungen der Königlich-Sächsischen Gesellschaft der Wissenschaften zu Leipzig“ veröffentlichte, handelte es sich dabei um einen mathematischen Grundlagenartikel ohne Bezug auf irgendeine Anwendungsmöglichkeit.
Heute gäbe es ohne diese Grundlagen die Computertomographie nicht, welche mittlerweile unzähligen Menschen das Leben gerettet hat.
Wichtigkeit der Grundlagenforschung
Das soll ein Hinweis an alle Ignoranten (insbesondere unter den Politikern) sein, die meinen, Forschungen ohne praktischen Bezug einschränken zu müssen. Grundlagenforschung schafft ja gerade die Grundlagen für die angewandte Forschung und sollte deshalb mit besonders hoher Priorität aus sich heraus vorangetrieben werden.
Mathematik ist keine Naturwissenschaft, aber unentbehrlich
Bleiben wir bei der Mathematik. Es gibt und gab so gut wie keine „Kultur“, die nicht zumindest im Ansatz über so etwas wie Mathematik (und sei es nur des Zählens wegen) verfügt bzw. verfügt hat. Bereits auf Keilschrifttafeln, die aus dem Zweistromland stammen, finden sich mathematische Texte, die z. B. Lösungsverfahren von quadratischen Gleichungen enthalten.
Seitdem hat sich die Mathematik zu einem für einen einzelnen Menschen nicht mehr überschaubaren Wissensgebiet entwickelt, dessen Erkenntnisse und Methoden mittlerweile in alle Bereiche der natur-wissenschaftlichen und ingenieurtechnischen Forschung und selbst in die „Gesellschafts- und Wirtschaftswissenschaften“ wie die Soziologie und Ökonomie Einzug gehalten haben und von dort nicht wieder wegzudenken sind. Die Mathematik hat die Eigenschaft, dass sie auf sich selbst aufbaut und dabei die Menge der „Sätze“ und „Beweise“ immer größer wird. Die Algebra stützt sich auf die Arithmetik. Die Geometrie stützt sich auf die Arithmetik und die Algebra. Und die für wissenschaftlich-technische Anwendungen wichtigste und unverzichtbare Disziplin der Analysis in Form der Differential- und Integralrechnung basiert sowohl auf Arithmetik, Algebra und Geometrie. Und so geht es fort. Die Mathematik ähnelt einem gewaltigen Stammbaum, dessen Äste immer weiter wachsen und die immer stärker werden. Und alles, was im Rahmen der mathematischen Forschung einmal „bewiesen“ wurde, bleibt bestehen. Das ist der Unterschied zu den Naturwissenschaften (Mathematik ist keine Naturwissenschaft, obwohl sie gerne zu den naturwissenschaftlichen Fächern gezählt wird), wo sich jede Erkenntnis an der Erfahrung, an der Empirie, am Experiment, messen lassen muss. Seitdem es die Mathematik gibt, reizt es die Mathematiker Probleme zu formulieren, deren Lösung eine besondere Herausforderung darstellen. Sie sind manchmal sehr einfach und einleuchtend zu formulieren, wie der „Große Fermatsche Satz“ oder die Goldbachsche Vermutung, die da lautet „Jede gerade Zahl größer als 2 kann als Summe zweier Primzahlen geschrieben werden.“ Die Erstere konnte mittlerweile (1995) von Andrew Wiles bewiesen werden, während sich an der Goldbachschen Vermutung noch heute die Zahlentheoretiker die Zähne ausbeißen.
Hilbertsche Probleme
Die erste größere Sammlung von mathematischen Problemen, deren Lösung für die Weiterentwicklung der Mathematik von besonders großer Bedeutung sind, wurde von dem berühmten Göttinger Mathematiker David Hilbert (1862-1943) im Jahre 1900 auf dem II. Internationalen Mathematiker-Kongress in Paris vorgestellt.
Diese Zusammenstellung von 23 „Hilbertschen Problemen“ sollte die Mathematik des 20. Jahrhunderts maßgeblich voranbringen. Von den Problemen gelten gegenwärtig 15 als gelöst, 3 als ungelöst und 5 als prinzipiell unlösbar, wobei sich die Unlösbarkeit zumeist auf eine unpräzise Fragestellung bezieht. Eines der drei ungelösten Probleme stellt übrigens die Goldbachsche Vermutung dar.
Millenium-Probleme
Auch für das 21. Jahrhundert gibt es eine solche Zusammenstellung von mathematischen Problemen, die man als „Millennium-Probleme“ bezeichnet. Mit ihrer Lösung kann man sich sogar als Mathematiker etwas Geld hinzu verdienen, denn für jede Lösung dieser 7 Probleme wurde vom Clay Mathematics Institute ein Preisgeld von jeweils 1 Million Dollar ausgelobt. Nur ein Problem davon konnte bisher (2002) gelöst werden, die sogenannte Poincarè-Vermutung. In die Überprüfung der Lösung wurden allein mehrere Jahre Arbeit hochkarätiger Spezialisten investiert, bis die Gemeinde der Mathematiker sicher war, dass der von dem extravaganten russischen Mathematiker Grigori Perelman vorgelegte (aber niemals von ihm selbst in einer mathematischen Fachzeitschrift veröffentlichte) Beweis korrekt ist.
Von der Öffentlichkeit ist dabei weniger die intellektuelle Leistung des mittlerweile freiwillig arbeitslosen Mathematikers als dessen Weigerung, sowohl die Fields-Medaille (quasi der „Nobelpreis“ für junge Mathematiker) als auch das Preisgeld anzunehmen, mit Aufmerksamkeit bedacht worden. Übrigens, wer einmal etwas Anspruchsvolleres als diesen Text lesen möchte, die Arbeiten von Grigori Perelman sind leicht im Internet zu finden (ArXiv)… Nun noch kurz ein paar Bemerkungen dazu, wie wichtig gute Kenntnisse in Mathematik sind, wenn man Naturwissenschaftler oder Ingenieur werden will. Schon mancher erstsemestrige Physikstudent war überrascht, als er feststellen musste, dass die ersten beiden Jahre hauptsächlich aus Mathematik-Vorlesungen bestehen – und die Hochschulmathematik ganz anders dargeboten wird, als er es von der Schule gewohnt war (in den ersten vier Semestern macht es quasi keinen Unterschied, ob man Mathematik oder Physik studiert). Professionell Physik zu betreiben bedeutet, dass man erst einmal die „Amtssprache“ dieser höchst anspruchsvollen Wissenschaft erlernen muss, und das ist nun mal die Mathematik. Das bedeutet jedoch nicht, dass man besonders gut im „Kopfrechnen“ sein muss (das können viele Verkäuferinnen oftmals besser als manche gestandene Mathematik- oder Physik-Professoren), sondern es gilt ein mathematisches Verständnis auf möglichst hohem Niveau zu entwickeln, um dieses „Werkzeug“ auch erfolgreich zur Problemlösung einsetzen zu können. Und das kann man nur durch üben, üben und nochmals üben. Deshalb sollte man sich als Student nicht wundern, dass man jede Woche neben der obligatorischen Vorlesungsnacharbeitung zig Übungszettel plus umfangreiche Praktikumsprotokolle bearbeiten muss, um einigermaßen erfolgreich über die Runden zu kommen.
Viel wichtiger als Begabung sind dabei Fleiß, eine hohe Frustrationsgrenze und der Wille, an einem Problem solange zu arbeiten, bis man „seine“ Lösung gefunden hat. Und wenn sie einmal falsch sein sollte, dann einfach noch mal hinsetzen, um den Fehler nachzuvollziehen. Wenn man dagegen nur ein lustiges Studentenleben anstrebt, dann sind die MINT-Fächer dafür definitiv nicht geeignet, es sei denn, man ist sowas wie ein „Überflieger“. Wer bereits im Vorfeld den Schock etwas abmindern möchte, den der Übergang von der Gymnasialmathematik zur Hochschulmathematik für viele Studenten bereitet, dem empfehle ich im Internet nach Videos mit Mathematikvorlesungen (z. B. auf dem Tübinger Multimedia-Server TIMMS) zu suchen und sich diese einmal anzuschauen. Kann man sich damit anfreunden, dann sollte man wirklich etwas „Mathematiklastiges“ studieren, denn der intellektuelle Lohn, der einen am Ende erwartet, ist nicht zu verachten. Ansonsten wird man mit hoher Wahrscheinlichkeit die ersten Semester nicht überstehen. Noch ein paar Worte zum Internet.
Joseph Weizenbaums „Misthaufen“
Joseph Weizenbaum (1923-2008) hat es einmal sinngemäß als einen „großen Misthaufen, in dem viele Perlen und Diamanten verborgen sind“, bezeichnet.
Wer es lernt, diese „Perlen“ und „Diamanten“ darin aufzufinden, kann das Internet als eine nie versiegende Quelle zum Erwerb von Wissen nutzen. Bleiben wir dabei nur beim Thema „Vorlesungen“.
Der Begriff stammt noch aus der Zeit der Scholastik, als Bücher noch sehr rar waren. Bei einer Vorlesung wird bekanntlich ein Thema mündlich an einer Tafel mit Kreide oder neuerdings per Powerpoint "multimedial" vorgetragen, was den Vorteil hat, dass man den Ausführungen des Vortragenden (im Gegensatz zum Lesen) gleich mit zwei Sinnen folgen kann. Der "Nachteil" ist, dass Vorlesungen i. d. R. nur von eingeschriebenen Studenten besucht werden dürfen und dass man für (öffentliche) Vorträge meistens löhnen muss - und dass sie meist an aktuell unerreichbaren Orten und zu meist unmöglichen Zeiten stattfinden. Das Internet macht es heute im Prinzip für wirklich jeden daran Interessierten möglich, Vorlesungen und Vorträge zu besuchen, ohne seine Wohnung verlassen zu müssen. Auch Vorlesungsskripte sind mittlerweile für jedermann kostenlos im Web auf entsprechenden Seiten zugänglich und können u. U. teure Fachbücher ersetzen. Kurz gesagt, es gibt keinen Grund mehr, unwissend zu bleiben... Ich selbst verwende einen Tablet - PC, um mir beispielsweise abends bequem im Sessel (oder im Bett, wer es mag) eine Vorlesung, einen Vortrag oder eine BBC-Dokumentation online anzusehen. Wichtig ist nur, dass man möglichst frühzeitig lernt, die nach Weizenbaum 90% „Mist“ des Internets von den wahren Perlen und Diamanten zu trennen und man sich auf Letztere konzentriert und das Andere, soweit überhaupt möglich, außen vor lässt. Von Joseph Weizenbaum, dem wohl prominentesten und tiefgründigsten Kritiker der modernen Informationsgesellschaft, stammt auch folgendes Zitat, welches man zugleich durchaus auch als Teil einer Agenda einer modernen Schulpolitik begreifen kann:
"Die höchste Priorität der Schule ist es, den Schülern ihre eigene Sprache beizubringen, so dass sie sich klar und deutlich artikulieren können: in ihrer stillen Gedankenwelt ebenso wie mündlich und schriftlich. Wenn sie das können, dann können sie auch kritisch denken und die Signale, mit denen sie ihre Welt überflutet, kritisch interpretieren. Wenn sie das nicht können, dann werden sie ihr ganzes Leben lang Opfer der Klischees und Schablonen sein, die die Massenmedien ausschütten."
Gerade die Fähigkeit, sich mündlich und schriftlich und dabei noch möglichst fehlerfrei ausdrücken zu können, scheint nicht nur nach meinen eigenen Beobachtungen im Zeitalter von SMS und E-Mail rapide verloren zu gehen. Alexander von Humboldt (1769-1859) und viele seiner Zeitgenossen konnten noch Bücher handschriftlich so schreiben, dass sie 1:1 gesetzt werden konnten.
KI - Phrasendrescher und Bullshit-Generatoren
Heute beobachtet man nicht nur hier und da Artikel und Abhandlungen, in denen Unwissenheit oder Inhaltslosigkeit z. B. durch Bombast und sinnbefreite Fremdwörter getarnt wird. Wer sich dieser Methodik exzessiv bedienen möchte, der sei auf ein Produkt der „künstlichen Intelligenz“ a la Weizenbaum hingewiesen, den „Bullshit-Generator“ oder „Phrasendrescher“. Durch Eingabe entsprechender Hauptwörter kann man damit leicht grammatikalisch richtige, aber weitgehend sinnfreie Sätze bilden, die obendrein noch äußerst „gelehrt“ klingen. Durch intelligente Anwendung dieser Hilfsmittel lassen sich übrigens mit wenig Aufwand ganze Passagen, beispielsweise für „Parteiprogramme“ oder „Reden“, generieren - zumindest hat man manchmal den Eindruck, dass das wirklich in praxi der Fall ist, wenn man solche liest... Zum Abschluss noch ein meiner Meinung nach besonders schönes Beispiel aus der sogenannten „Wissenschaftsprosa“, welches ich vor einiger Zeit gefunden habe. Es stammt aus der Linguistik, also einer Wissenschaft, die sich besonders der menschlichen Ausdrucksweise verpflichtet fühlt. Hier das Zitat:
„Die 'kaleidoskopische Polemik' (W. Lepenies) um das Verhältnis eines zwischen Methodologie und panstrukturalistischer Ideologie oszilierenden Strukturalismus zum Marxismus dominierte in den letzten Jahren die theoretische Szene in Frankreich und führte in den Arbeiten der Schule Althussers zu dem Versuch, über die Assimilierung der Ergebnisse der Linguistik, Kybernetik und einer ihrerseits von linguistischen Aporien her interpretierten Psychoanalyse gegenüber den humanistischen Marxismus-Interpretationen eine 'szientifizierte' Version marxistischer Theorie zu katalysieren.“
Alles klar? Eine Dissertation in solch einem Stil kann eigentlich gar nicht anders als mit „summa cum laude“ bewertet werden.
Fahrräder und Fahrrad fahren
Etwas völlig anderes als Sinnfreiheit ist Bewegungsfreiheit - und zwar im körperlichen Sinn. Das Fehlen von Letzterer beim modernen (Stadt-) Menschen hat eine Erfindung wieder zu Ehren kommen lassen, welches dem Autofahrer lange Zeit verhasst war, das Fahrrad. Die Verkaufszahlen (ca. 4 Millionen im letzten Jahr allein in Deutschland) lassen im Vergleich dazu die Automobile alt aussehen. Mit der Einführung des Mountainbikes in den 1990er Jahren hat seine Beliebtheit stetig zugenommen und zwar sowohl als Gebrauchsgegenstand (Fahrt zur Arbeit, innerstädtisches Verkehrsmittel), als auch Sportgerät und Fortbewegungshilfe im Freizeitbereich. Es ist in seiner klassischen Form technisch gesehen weitgehend ausgereizt, in vielen Details „Hightech“, und vom energetischen Standpunkt her (Reichweite und Geschwindigkeit bei einer durchschnittlichen Antriebsleistung von ~150 W) unerreicht. Es dürfte also nicht uninteressant sein, etwas über seine Geschichte zu erzählen, die sich wahrscheinlich bis zum Jahr 1801 zurückverfolgen lässt. In diesem Jahr soll angeblich ein russische Bauer aus dem Ural mit Namen Jefim Artamanow so etwas wie einen „Trittroller“ am Zarenhof vorgeführt haben, was sich aber nicht mehr eindeutig belegen lässt. Die eigentliche „Erfindung“ eines zweirädrigen Gefährts geht auf den badischen Forstbeamten Karl Friedrich Christian Ludwig Freiherr Drais von Sauerbronn (1785-1851) zurück, der damit im Jahre 1817 eine erste Ausfahrt unternahm.
Sein von ihm „Veloziped“ benanntes Laufrad wurde dabei von seinen Zeitgenossen eher als Kuriosum angesehen als eines ernsthaften, einer Entwicklung fähigen Personenbeförderungsmittels. So schrieb ein Jahr nach dieser denkwürdigen Ausfahrt über die nun bereits „Draisine“ genannte Fortbewegungsmaschine eine Pariser Postille
„Diese Maschine wird nicht von großem Nutzen sein; denn man kann sich ihrer nur in gut erhaltenen Alleen oder Parks bedienen... Das Fahrzeug ist gut, um Kindern im Garten zum Spielen zu dienen...“
Im gewissen Sinne hatte hier der Autor sogar Recht, denn so etwas, was wir heute als vernünftige Straße bezeichnen würden, gab es zu jener Zeit nur ganz, ganz vereinzelt. Aber von Drais hatte trotzdem den Nerv der Zeit mit seiner Erfindung getroffen und so begannen sich eine Vielzahl weiterer „Erfinder“ und Techniker damit zu beschäftigen, wobei einige unter ihnen ein paar wahrlich abenteuerliche Konstruktionen ablieferten. Das uns heute „schlechte Wege“ beim Radfahren nicht sonderlich mehr stören (höchstens ärgern, es sei denn, man fährt Rennrad), liegt an der Erfindung des luftgefederten Reifens (Pneu, Patent 1888). Zuvor sahen „Fahrradräder“ wie „Kutschenräder“ aus, d. h. sie hatten eine Holzfelge, die zu deren Zusammenhalt und Schutz mit einem Metallreif ausgestattet war. Die erste wichtige Frage, mit der sich die Ingenieure zu beschäftigen hatten, war die Frage a) der Antriebstechnik und b) der Größe der Räder. Dass das Antriebsprinzip, welches von Drais für seine „Draisine“ genutzt hat, nicht ideal ist, kann jeder nachvollziehen, dem einmal bei einer Radtour die Kette gerissen ist. Die erste Idee war deshalb, das Vorderrad mit einem Pedalantrieb auszustatten. Das erforderte ein möglichst großes Vorderrad und ein um einiges kleineres hinteres Stützrad. Die Vorderradgröße war dabei durch die Sattellage begrenzt, denn es musste ja eine optimale Kraftübertragung auf die Pedalenkurbel gewährleistet werden. Eine Pedalenkurbelumdrehung war in diesem Fall gleich einer Radumdrehung und der dabei zurückgelegte Weg entsprach einem Radumfang. Damit ließen sich im Vergleich zum Veloziped höhere Geschwindigkeiten erreichen und es war auch robuster gegenüber Wegunebenheiten.
Dieses als „Hochrad“ bezeichnete Fahrrad kam um 1845 auf und erfreute sich einer gewissen Beliebtheit, bis es von besseren Konstruktionen abgelöst wurde. „Evolutionsbiologisch“ wurde dabei das Vorderrad immer größer, das Hinterrad immer kleiner, das „Aufsitzen“ immer schwieriger und die Folgen von Unfällen für den Fahrer immer bedrohlicher. Schlicht, dass Hochrad war in eine evolutionäre Sackgasse geraten, ähnlich wie am Ende der letzten Eiszeit der amerikanische Säbelzahntiger. Während letzterer bekanntlich ausgestorben ist, wird das Hochrad heute in geringen Stückzahlen wieder produziert und bei Schauveranstaltungen gern als Blickfang genutzt. Die ersten Fahrräder, die schon in etwa wie unsere heutigen Fahrräder aussahen, wurden etwa ab 1861 von dem Franzosen Pierre Michaux (1813-1883) gebaut. Auch sie besaßen noch einen Vorderradpedalantrieb. Das größte Manko war jedoch das schwierige Lenken, da der Pedalantrieb direkt am Vorderrad das Vehikel instabil machte. Ein Amerikaner, ein gewisser Hemmings, sagte sich um 1869 - warum zwei Räder, wenn ein Großes auch geht, und erfand das erste Monocycle. Hierbei sitzt der Fahrer im Inneren eines größeren Rades, welches aus zwei, durch Speichen verbundenen Ringen besteht. Der innere Ring dient dabei quasi als Führungsschiene für das eigentliche Fahrgestell mit Sattel und dem Antriebsmechanismus, der aus einem Antriebsrad mit Pedalen bestand (die Patentliteratur kennt hier eine Vielzahl von Antriebsvarianten bis hin zum Motor). Eine Lenkung gab es ebenso wenig wie eine Bremse, was vom Fahrer einen gewissen Mut abverlangte. Trotzdem erreichte die Kunde vom „Flying Yankee Veloziped“ auch Europa, wo die „Leipziger illustrierte Zeitung (Jahrgang 1882)“ wie folgt darüber berichtet hat:
„Wenngleich das neue Vehikel in Folge des bedeutenden Durchmessers des äußeren Rads nicht geeignet erscheint als Verkehrsmittel praktische Dienste zu leisten, so bietet dasselbe doch den Freunden des Sports eine interessante Übung und ist als anziehendes Schauspiel namentlich für die, welche mit den Gesetzen der Mechanik wenig vertraut sind, wohl auch einer industriellen Verwertung fähig.“
Solch ein Rad hat sich natürlich nicht durchsetzen können, aber das Prinzip hat durchaus überlebt, wie einige exotisch anmutende Motorräder (sogenannte Monowheels) beweisen.
Richtig brauchbar wurde das Fahrrad jedoch erst mit der Einführung der Fahrradkette und des Hinterradantriebs, was ungefähr um 1885 (John Kemp Starley) geschah. Damit war im Prinzip das „Niederrad“ (zwei gleich große Räder) erfunden, so wie es sich bis heute bewährt hat. Zuerst Vollgummi- dann Luftbereifung (1888, John Boyd Dunlop) ließen den Komfort wachsen und auch die Gangschaltung (zuerst Nabenschaltung, dann ab 1930 die Kettenschaltung) machten schließlich das Fahrrad zu einem viel benutzten und ernsthaften Massenverkehrsmittel. „Radrennen“ gibt es seit 1869, Radfahren als olympische Disziplin seit 1896. Die berühmte „Tour de France“ wird - mit kriegsbedingten Unterbrechungen - seit 1903 durchgeführt. Der „Stundenweltrekord“ mit einem Rennrad liegt derzeit (2015) bei 54,5 km, bei vollverkleideten Liegerädern bei 91,55 km. Beim Fahren im Windschatten wurden bereits Geschwindigkeiten bis zu 268 km/h allein mit Muskelkraft erreicht. Das allein unterstreicht, dass das Fahrrad „die“ Erfindung im Fahrzeugsektor ist, welche die Antriebsenergie am effektivsten in Bewegungsenergie umzusetzen vermag. Zur Erinnerung, die durchschnittliche Antriebsleistung liegt bei ca. 150 W (=0,2 PS). Christopher Froomes, der Sieger der Tour de France 2015, erreichte „am Berg“ eine Antriebsleistung von etwa 425 W, was schon in der Grenze des gerade noch Menschenmöglichen ist.
"Mein" Fahrrad auf dem Tollenstein...
Die Innovation des neuen Jahrtausends in Bezug auf Fahrräder ist deren Antriebsleistung künstlich zu erhöhen, und zwar durch batteriebetriebene Elektromotoren. Solche „Pedelec’s“ (Pedal Electric Cycle) oder E-Bikes erfreuen die Fahrradhändler mit stetig steigenden Umsatzzahlen, denn ein bei Bedarf zuschaltbarer Nabenmotor hilft insbesondere auch älteren Menschen fahrradtechnisch mobil zu bleiben (hier kommt mir die alte Radfahrerweisheit in den Sinn: „Man merkt am besten, wie es mit einem bergab geht, wenn man bergauf fährt...“).
Elektromobilität
Elektromobilität ist bei uns in Deutschland eh das politisch verordnete Gebot der Stunde: 1 Million Elektroautos sollen bekanntlich bis zum Jahr 2020 die deutschen Straßen bevölkern. Im Jahre 2015 hat man immerhin schon die 19.000er Marke an batteriebetriebenen geknackt (ohne Hybride). Und es sind ja noch 5 Jahre Zeit, um den gemeinen Autofahrer von den Vorteilen moderner Elektroautos zu überzeugen, selbst wenn sie mit einer Batteriefüllung weniger weit fahren als ein Diesel oder Benziner, bei Kälte schon mal den Geist aufgeben und während des „Stromtankens“ genügend Zeit für eine kleine Stadtbesichtigung bleibt. Da macht der höhere Preis auch kaum was aus, denn Elektroautos sind bekanntlich „öko“. Pedelec-Fans sind ja bereits überzeugt, denn mittlerweile sind in Deutschland schon mehr als 2 Millionen Elektrofahrräder innerhalb kürzester Zeit verkauft worden. Nur scheint dieser Erfolg aus unerklärlichen Gründen nicht auf die Autobranche durchgeschlagen zu haben. Auf jeden Fall war es ein strategischer Fehler, als man regierungsseitig das Projekt mit den 1 Million „Elektrofahrzeugen“ bis zum Jahr 2020 aufgelegt hat, ohne die E-Bikes zu den „Elektrofahrzeugen“ hinzu zu rechnen. Denn dann hätte heute schon die Politik stolz eine enorme Übererfüllung ihrer Pläne vermelden können. Nun ja, das Hauptproblem, von dem die Akzeptanz von Elektrofahrzeugen bekanntlich in erster Linie abhängt, liegt in der Effizienz und den Kosten der dazu notwendigen Batterietechnik.
Nadelöhr Batterietechnik
Denn von der verwendeten Batterietechnik hängen zwei der für den Verbraucher (neben dem Preis) wichtigsten Akzeptanzparameter eines Elektroautos ab, die Reichweite pro Ladungszyklus sowie die Dauer einer kompletten Aufladung an der Ladestation im Vergleich zum “Tankstopp“ eines herkömmlichen Automobils (dazu kommt eventuell noch die Lebensdauer der Batterie, die an der Anzahl der maximal möglichen Ladezyklen gemessen wird).
...
Keine Kommentare:
Kommentar veröffentlichen