...
Elektromobilität
Elektromobilität ist bei uns in Deutschland eh das politisch verordnete Gebot der Stunde: 1 Million Elektroautos sollen bekanntlich bis zum Jahr 2020 die deutschen Straßen bevölkern. Im Jahre 2015 hat man immerhin schon die 19.000er Marke an batteriebetriebenen geknackt (ohne Hybride). Und es sind ja noch 5 Jahre Zeit, um den gemeinen Autofahrer von den Vorteilen moderner Elektroautos zu überzeugen, selbst wenn sie mit einer Batteriefüllung weniger weit fahren als ein Diesel oder Benziner, bei Kälte schon mal den Geist aufgeben und während des „Stromtankens“ genügend Zeit für eine kleine Stadtbesichtigung bleibt.
Da macht der höhere Preis auch kaum was aus, denn Elektroautos sind bekanntlich „öko“. Pedelec-Fans sind ja bereits überzeugt, denn mittlerweile sind in Deutschland schon mehr als 2 Millionen Elektrofahrräder innerhalb kürzester Zeit verkauft worden. Nur scheint dieser Erfolg aus unerklärlichen Gründen nicht auf die Autobranche durchgeschlagen zu haben. Auf jeden Fall war es ein strategischer Fehler, als man regierungsseitig das Projekt mit den 1 Million „Elektrofahrzeugen“ bis zum Jahr 2020 aufgelegt hat, ohne die E-Bikes zu den „Elektrofahrzeugen“ hinzu zu rechnen. Denn dann hätte heute schon die Politik stolz eine enorme Übererfüllung ihrer Pläne vermelden können. Nun ja, das Hauptproblem, von dem die Akzeptanz von Elektrofahrzeugen bekanntlich in erster Linie abhängt, liegt in der Effizienz und den Kosten der dazu notwendigen Batterietechnik.
Nadelöhr Batterietechnik
Denn von der verwendeten Batterietechnik hängen zwei der für den Verbraucher (neben dem Preis) wichtigsten Akzeptanzparameter eines Elektroautos ab, die Reichweite pro Ladungszyklus sowie die Dauer einer kompletten Aufladung an der Ladestation im Vergleich zum “Tankstopp“ eines herkömmlichen Automobils (dazu kommt eventuell noch die Lebensdauer der Batterie, die an der Anzahl der maximal möglichen Ladezyklen gemessen wird). Batterien, die als Primärenergiegeber für einen PKW herhalten sollen, müssen offensichtlich besonderen Anforderungen gerecht werden. Das Maß aller Dinge ist hier die Energiedichte, d. h. wieviel Energie sich pro Volumen- oder Masseeinheit speichern und zur Nutzung zurückgewinnen lässt. Dieselkraftstoff besitzt beispielsweise eine Energiedichte von 43 MJ/kg.
Die besten Batterien erreichen heute in Experimentalanordnungen (also weitab einer praktischen Einsatzfähigkeit) gerade einmal eine Energiedichte von ungefähr 4,7 MJ/kg (Aluminium-Luftbatterien, sind aber als Akkus aus chemischen Gründen nicht zu gebrauchen). „State of the Art“ für den Einsatz im KFZ sind Lithium-Ionen-Akkumulatoren, die eine Energiedichte in der Größenordnung von 0,5 MJ/kg aufweisen. Das dürfte erklären, warum Elektroauto-Batterien so groß und so schwer - und auch so teuer sind. Um zu verstehen, warum sich das kurz- und wahrscheinlich auch mittelfristig kaum ändern wird, muss man sich mit den elektrochemischen Prozessen, die in Batterien ablaufen, beschäftigen. Batterien sind ja erst einmal nichts anderes als die Zusammenschaltung mehrerer galvanischer Elemente, in denen chemische Energie in elektrische Energie umgewandelt wird. Sie bestehen aus jeweils zwei verschiedenen Metallelektroden (Anode und Kathode) sowie einem Elektrolyten in Form eines sogenannten Redox-Systems. Die Spannung, die sie liefern, hängt neben dem Anoden- und Kathodenmaterial (die sich in der Position in der elektrochemischen Spannungsreihe möglichst stark unterscheiden sollten) von den verwendeten Elektrolyten und der Temperatur ab. Die Kunst besteht darin, die richtigen Ingredienzien für eine sogenannte Sekundärzelle zu finden (nur sie lassen sich als Akkus verwenden) und die physikalisch-chemischen Umgebungsbedingungen für deren optimalen Betrieb zu schaffen. Und das ist alles andere als trivial, wie mittlerweile zwei Jahrhunderte „Batterieforschung“ zeigen. Das Prinzip, auf dem Batterien beruhen, kennt man, seit Luigi Galvani (1737-1798) mit Hilfe eines einfachen galvanischen Elements Froschschenkel hat zucken lassen und Alessandro Volta (1745-1827) mehrere von diesen „galvanischen Elementen“ zu einer ersten Batterie zusammenschaltete („Voltasche Säule“).
Auch heute ist das schnell getan. Man braucht dazu nur zwei verzinkte Nägel, etwas Kupferblech und Draht sowie zwei Zitronen (es müssen keine Bio-Zitronen sein) aus dem Supermarkt. Will man damit ein Lämpchen betreiben, dann benötigt man noch zusätzlich eine handelsübliche Leuchtdiode. Ansonsten reicht zum Nachweis der Spannung ein normales Voltmeter aus. Nun muss man nur noch in jede der beiden Zitronen einen Nagel und ein Stück Kupferblech stecken und mit etwas Kupferdraht das Stück Kupferblech der ersten Zitrone mit dem Zinknagel der zweiten Zitrone verbinden. Wenn man jetzt ein „Bein“ der Leuchtdiode mit dem Zinknagel der ersten Zitrone und mit dem anderen „Bein“ das Kupferblech der zweiten Zitrone verbindet, dann wird sie aufleuchten (vorausgesetzt, sie haben die „richtigen“ Beine erwischt und die Diode arbeitet in Durchlassrichtung) und damit beweisen, dass unsere einfache Batterie auch wirklich funktioniert. Durch Hintereinanderschaltung zusätzlicher Zitronen lässt sich diese einfache Batterie übrigens weiter verbessern. Was geschieht hier eigentlich? Im Saft der Zitrone ist bekanntlich Zitronensäure enthalten (einfach mal kosten), welche in diesem Fall als Elektrolyt wirkt. Wenn man in die Zitrone ein Kupferblech und einen Zinknagel steckt, dann lösen sich daraus positiv geladene Kupfer- bzw. Zinkionen, die frei durch den Elektrolyt diffundieren können. An den Elektroden bleibt dabei eine negative Ladung in Form eines Elektronenüberschusses zurück. Zinkionen lösen sich in der Säure jedoch leichter als Kupferionen, und dementsprechend sammelt sich auf dem verzinkten Nagel mehr negative Ladung als auf dem Stück Kupferblech an – es entsteht ein Potentialunterschied, den man mit einem Voltmeter messen kann. Der Nagel bildet hier einen negativen (Anode) und das Stück Kupferblech einen positiven Pol (Kathode). Wenn man nun zwischen Nagel und Kupferblech eine Leuchtdiode klemmt, wandern die Elektronen vom Nagel durch die Diode zum Kupferblech und bringen dabei die Diode zum Leuchten. Was die Elektromobilität betrifft, stellen heute Akkumulatoren auf Lithiumionen-Basis die fortschrittlichsten Energiespeicher für PKW’s dar. Es gibt sie mittlerweile in mehreren Varianten, so u. a. als Lithium-Metalloxid-Akkus, als Lithium-Polymer-Akkus mit flüssigen organischen Elektrolyten, als Lithium-Mangan-Akkus mit besonders vielen Ladezyklen sowie Lithium-Luft-Akkumulatoren, denen noch ein sehr hohes Entwicklungspotential nachgesagt wird. Bei IBM hofft man z. B. in näherer Zukunft in Lithium-Luft-Batterien eine (theoretische) Energiedichte von ~40 MJ/kg erreichen zu können, was dann ein echter Durchbruch wäre. Eine typische heutzutage verwendete Lithium-Ionen-Batterie mit insgesamt 180 MJ (=50 kWh) Energiegehalt besitzt eine Masse von rund 400 bis 500 kg und ermöglicht eine Reichweite von ungefähr 150 km. Die Reichweite lässt sich hier nur noch durch Volumenvergrößerung der Batterie signifikant erhöhen. Lithium-Luft-Batterien könnten hier aufgrund ihrer höheren spezifischen Energiedichte Abhilfe schaffen, wenn ihre Realisierung nicht so extrem schwierig wäre. Eine große Zahl von Detailproblemen verhindert bis jetzt, dass sie über das Versuchsstadium hinausgelangten. Es sieht aber so aus, dass sich vielleicht die Probleme, die überwiegend chemisch-physikalischer Natur sind, in kleinen Schritten doch noch lösen lassen. Zumindest in den IBM-Forschungslabors ist man immerhin in dieser Hinsicht bedeckt-optimistisch. Letztendlich werden die Batterietechnik und ihr Preis entscheiden, in welchem Maße Elektroautos angeschafft werden. Als Zweitfahrzeuge für kurze Distanzen haben sie heute bereits einen gewissen Kundenstamm. Damit sie aber als Alternative für heutige Mittelklassewagen am Markt bestehen können, ist noch viel Entwicklungsarbeit nötig. Doch zurück zu den heute überall zu findenden Lithiumionen-Akkus.
Lithium
Sie haben ein chemisches Element zu Ehren gebracht, welches vor einigen Jahrzehnten fast nur für Kernwaffenbauer (als Lithiumdeuterid) von Interesse war. Man findet es bekanntlich an dritter Position (Kernladungszahl Z=3) im Periodensystem in der ersten Hauptgruppe, den Alkalimetallen. Es ist zum überwiegenden Teil während der ersten Minuten des Urknalls im Rahmen der primordialen Nukleosynthese entstanden (neben Deuterium, primordialem Helium und ein klein wenig Beryllium). Innerhalb von Sternen kann es prinzipiell nicht fusioniert, aber sehr effektiv zerstört werden. So ist es durchaus bemerkenswert, dass es in der Tabelle der Elementehäufigkeiten der Erdkruste an 27. Stelle (ähnlich Zink oder Wolfram, geschätzter Anteil ~0,006%) steht und damit beispielsweise, absolut gesehen, in größerer Menge in der Erdkruste vorhanden ist als Blei. Aufgrund dessen, dass Lithiumverbindungen jedoch nur selten gehäuft vorkommen, ist die Gewinnung dieses sehr leichten Alkalimetalls schwierig und kostenintensiv, was natürlich auf die Batteriepreise durchschlägt. In der Natur kommt Lithium in zwei stabilen Isotopen vor. Der Kern des häufigeren (92,4%) Lithium-7 besteht aus drei Protonen und vier Neutronen, während Lithium-6 nur drei Neutronen besitzt. Die Theorie der Elementeentstehung (Nukleosynthese) während des Urknalls macht recht präzise Vorhersagen in Bezug auf die Mengenverhältnisse von Wasserstoff, Deuterium, Helium und Lithium (alle anderen Elemente werden erst im Zuge der Sternentwicklung produziert), die durchaus gut mit den beobachteten Mengenverhältnissen mit Ausnahme der des Lithiums, übereinstimmen. Dessen beobachteter Mengenanteil (Lithium-7) in den Atmosphären alter, im Halo der Milchstraße angesiedelter Sterne (Kugelsternhaufen), erscheint im Lichte der primordialen Nukleosynthese überraschenderweise als zu gering, was den Inhalt des sogenannten „kosmologischen Lithiumproblems“ ausmacht. Neuere Messungen an Halosternen scheinen jedoch zu bestätigen, dass dieses „Problem“ nur vorgetäuscht ist. Es scheint vielmehr so zu sein, dass das in Bezug auf Wasserstoff und Helium spezifisch schwerere Lithium im Laufe der vielen Milliarden Jahre der Existenz dieser Sterne langsam in deren zentrale Bereiche absinkt, wo es dann bei Kernprozessen zerstört wird. Das Resultat davon ist die beobachtete Verarmung an diesem Element in den beo-bachteten Sternatmosphären, welche ungefähr 2/3 gegenüber dem primordialen Wert ausmacht. Das letzte Wort in dieser Angelegenheit ist aber noch nicht gesprochen, denn es gibt auch noch einige andere, ernstzunehmende Erklärungsmodelle für dieses Phänomen. Auf jeden Fall ist es jedoch interessant zu wissen, dass das Lithium in unseren Lithiumionenbatterien sehr alt ist (genau 13,798±0,037 Milliarden Jahre), denn es entstand in den ersten paar Minuten nach dem ominösen Zeitpunkt Null, den wir „Urknall“ nennen.
Urknalltheorie
Die Erkenntnis, dass „unsere“ Welt vor nicht einmal 14 Milliarden Jahren auf eine noch unerklärliche Weise aus etwas, was man als „Urknall“ bezeichnet, hervorgegangen ist, wird heute im sogenannten Standardmodell der Kosmologie im Detail dargelegt. Es ist mittlerweile so gut empirisch abgesichert, dass alternative Sichten wie beispielsweise die einst von Hermann Bondi (1919-2005), Thomas Gold (1920-2004) und Fred Hoyle (1915-2001, von ihm stammt übrigens der Begriff „Big Bang“) begründete Steady State – Theorie heute nicht mehr ernsthaft verfolgt werden. Die „Urknalltheorie“ ist, wie der Name schon sagt, ein mathematisch-physikalisches Konstrukt (Theorie), welches geschaffen wurde, um unsere Beobachtungen, soweit sie sich auf die Entwicklungsgeschichte des Kosmos als Ganzes beziehen, möglichst widerspruchsfrei zu erklären und zu begründen.
Den theoretischen Hintergrund, was Raum, Zeit und Gravitation betrifft, liefert die Allgemeine Relativitätstheorie Einsteins. Das, was „geschah“, bestimmen in diesem Modell die Thermodynamik und die Quantentheorie in Form des Standardmodells der Elementarteilchenphysik. Beide Theorien, die Gravitationstheorie Einsteins und die Quantentheorie, beschneiden mit ihren ureigenen Gültigkeitsbereichen unser Bild „nach unten“, denn es gibt noch keine anerkannte Quantentheorie der Gravitation, höchstens einige diskussionswürdige Ansätze dazu. Das verwehrt uns einen Blick auf die wahre Ursache dieses allgemein als „Explosion“ eines singulären Zustands wahrgenommenen Vorgangs „Urknall“. Aber man kann sich dem Zeitpunkt „Null“ mit unseren physikalischen Theorien immerhin einigermaßen sicher bis auf 10^-44 Sekunden (was erstaunlich genug ist) nähern. Es ist der Zeitpunkt, ab der die „Physik, wie wir sie kennen“, zu funktionieren anfängt. In Wahrheit ist aber, wie der bekannte Kosmologe Hubert Reeves es einmal ausgedrückt hat, der Urknall lediglich unser Horizont in Zeit und Raum, den wir aus Bequemlichkeit und in Ermangelung eines Besseren als Nullpunkt unserer Geschichte betrachten: „Wir sind Entdeckungsreisende vor einem Ozean: Wir sehen nicht, ob es hinter dem Horizont etwas gibt.“ Empirisch haben wir uns diesem Horizont bereits bis auf wenige Minuten nach dem Urknall genähert - in Form der Ergebnisse der bereits erwähnten „Produkte“ der primordialen Elementesynthese (genauer dem primordialen Wasserstoff/Helium-Verhältnis). Einen Blick auf die winzigen Inhomogenitäten, Quantenfluktuationen, im sich beim Urknall mit dem Raum ausdehnenden Plasma, liefert uns die kosmische Hintergrundstrahlung (auch 3 Grad Kelvin - Strahlung genannt), die mittels Satelliten (z. B. „Planck“) immer genauer vermessen wird und die uns Einblicke sowohl über die genaue räumliche Struktur, das Weltalter, als auch auf die frühe Strukturbildung im Kosmos gewährt. Zeitlich führt sie uns bis auf ~380.000 Jahre an den „Urknall“ heran, als der Kosmos quasi durchsichtig wurde (man nennt diese Epoche „Zeitalter der Wasserstoffrekombination“), weil sich nun das elektromagnetische Strahlungsfeld von der Materie abkoppeln konnte. Dieses Strahlungsfeld, welches heute hochgradig dem eines idealen schwarzen Körpers (Planck-Strahler) mit einer Temperatur von 2,725 K entspricht, füllt den kosmischen Raum homogen und isotrop aus und lässt sich am besten im Mikrowellenbereich beobachten.
Es ist neben der Beobachtung der Expansion des Raumes (sichtbar an der entfernungsabhängigen Fluchtgeschwindigkeit der Galaxien) eine der wichtigsten empirischen Stützen der Urknalltheorie. Beide Beobachtungen, die kosmische Expansion und die isotrope Hintergrundstrahlung, sind genaugenommen „der“ Beweis, dass unser Kosmos einen dichten und heißen Anfang genommen haben muss. Als man 1929 anhand von Beobachtungen, die zuerst von Vesto Slipher (1875-1969) und dann systematisch von Edwin Hubble (1889-1953) ausgeführt wurden, festgestellt hatte, dass sich unser Universum ausdehnt, da war sofort klar, dass es „früher“ eine geringere Ausdehnung gehabt haben musste. Und genau solch ein Verhalten hatte bereits der russische Mathematiker und Meteorologe Alexander Friedman (1888-1925) aus den Einstein’schen Gravitationsfeldgleichungen deduziert. Oder anders ausgedrückt, Theorie und Empirie weisen eindeutig auf die Existenz des Urknalls hin, in dem „unser“ Kosmos entstanden ist. Volkstümlich stellt man ihn sich gewöhnlich wie eine Explosion „im Raum“ vor, was aber falsch ist, wenn man ihn im Lichte der Allgemeinen Relativitätstheorie betrachtet. Er umfasste nämlich nicht nur den materiellen Inhalt des uns zugänglichen Kosmos (heute dargestellt durch die Hubble-Sphäre), sondern den gesamten physikalischen Raum (der wahrscheinlich unendlich groß ist). Die geometrischen Konzepte, auf denen diese Erkenntnisse beruhen, liegen leider außerhalb jedes Vorstellungsvermögens, weshalb man sich auch auf die Metapher einer „Explosion“ (aus der wir selbst hervorgegangen sind) bezieht, wenn man auf die Formelsprache der Mathematik verzichten möchte.
Warum ist überhaupt etwas und nicht vielmehr nichts?
Soweit wir uns aber auch der Antwort auf die Frage, was genau während des Urknalls passiert ist, annähern, die alte Frage, der Metaphysik, „Warum ist überhaupt etwas und nicht vielmehr nichts?“ (in der Formulierung von Gottfried Wilhelm Leibniz), bleibt dabei unbeantwortet. Eine Frage dieser Art ist der empirischen Wissenschaft unzugänglich, da sie auf einer höheren, all-gemeineren Ebene angesiedelt ist. Sie ist, kurz gesagt, philosophischer Natur. Martin Heidegger (1889-1976) bezeichnete deshalb die Frage „Warum ist überhaupt Seiendes und nicht vielmehr Nichts?“ sogar als die zentrale Frage der Metaphysik, die sich allein mit logischen Argumenten nicht beantworten lässt. Ein Schlüsselbegriff ist hier der Begriff des „Nichts“. Er besitzt viele Bedeutungsaspekte, die sich im Falle der genannten Aussage auf die Nichtexistenz des Seienden reduzieren lassen. Die Ambivalenz zwischen Seiendem und Nichtseiendem ist bereits bei den Vorsokratikern (so nennt man die Naturphilosophen, die vor dem Athener Philosophen Sokrates (469 v. Chr. – 399 v. Chr.) wirkten) ein zentrales Thema ihres philosophischen Denkens.
Mit der Erkenntnis, dass das Nichtseiende weder erkennbar noch erforschbar ist, wie es Parmenides von Elea (zwischen 520 v. Chr. und 460 v. Chr.)) lehrte, konzentrierte man sich nach ihm auf die nähere Bestimmung des Seins und dessen wesentlichste Eigenschaft, der Existenz. Die damit im Zusammenhang stehenden Fragen werden in der Lehre der Ontologie, also der Lehre von allem, was es gibt, behandelt. Weitere Schlüsselbegriffe sind in diesem Zusammenhang der Begriff der Wirklichkeit (Realität), das Problem der Identität sowie das auf Platon zurückgehende Problem der Universalien (das betrifft Allgemeinbegriffe wie Zahl, Mensch, Gott, Farbe etc. und die Frage, ob sie wirklich existent oder nur „menschliche Konstruktionen“ sind – Stichwort „Universalienstreit“), an dem sich noch heute die verschiedenen „Ontologien“ scheiden. Aber das soll hier nicht das Thema sein. Kommen wir lieber zum „Urknall“ zurück.
Das ominöse „Nichts“
Man liest, wenn man sich mit Kosmologie beschäftigt, immer häufiger, dass die Welt aus dem „Nichts“ entstanden ist, ohne dass dieses ominöse „Nichts“ näher, ob nun philosophisch oder physi-kalisch, spezifiziert wird. Für dieses „Nichts“ hat sich in der modernen Physik der Begriff des quantenmechanischen Vakuums eingebürgert, welches sich, wie man heute weiß, ganz grundlegend vom mathematisch denkbaren Vakuum, quasi der absoluten Leere, unterscheidet. Bereits in der Antike hat man das „Nichts“ mit einem anderen Begriff, dem der „Leere“ identifiziert (was zwar philosophisch gesehen eine Einschränkung ist, sobald man dem „Raum“ auch eine eigenständige Existenz zubilligt). Für die Atomisten war das der Raum zwischen den Atomen. Für ihre, der Atomisten, Lehre, war dieser Raum, den man vielleicht als „Mikrovakuum“ bezeichnen kann, notwendig, um die Bewegung der unteilbaren Atome postulieren zu können.
Das „Nichts“ als „Leere“
Da es den meisten antiken Philosophen unmöglich war, das absolut Leere zu denken, wurde es geleugnet (horror vacui) bzw. von Aristoteles mit einem „fünften Stoff“ aufgefüllt. Dieser fünfte Stoff (neben Feuer, Erde, Wasser und Luft), die „quinta essencia“, sollte immateriell, strukturlos und frei von dem in den genannten Elementen enthaltenen Gegensätzen (z. B. warm und kalt, fest und flüssig…) sein. Er soll das gesamte Universum gleichmäßig ausfüllen (Äther) und außerdem die eigentliche Ursache für die Bewegung der Himmelskörper sein. Aus diesem Grund gibt es in der Philosophie des Aristoteles keinen Platz für das Vakuum, während für die Atomisten die Existenz der Leere eine Notwendigkeit ist, um die Bewegung der Atome als inhärente Eigenschaft der Materie überhaupt postulieren zu können. Die Leugnung des Vakuums durch Aristoteles lässt sich als eine direkte Konsequenz seiner Bewegungsauffassung ansehen. Seine Dynamikkonzeption basiert auf den Schlüsselbegriffen Kraft, Geschwindigkeit und Widerstand. Dabei ist die Kraft die eigentliche Ursache für einen Bewegungsvorgang. Ein Körper bewegt sich aber nur solange, wie die Ursache, d. h. die Kraftwirkung, anhält. Ab dem Moment, wo keine Kraft mehr wirkt, sollte auch die Bewegung aufhören. Dass diese Behauptung nicht der Realität entspricht, konnte erst rund 2000 Jahre später Galileo Galilei (1564-1642) mit der Entdeckung des Trägheitsgesetzes zeigen. Nach Aristoteles ist demnach die Luft, die sich vor dem fliegenden Pfeil öffnet und sich dahinter wieder schließt, die eigentliche Ursache für dessen Bewegung. Erkennt man diese Aussage erst einmal als richtig an, dann folgt daraus zwingend, dass es ohne Luft auch keine Bewegung geben kann. Die Luft oder der „feinere“ Äther werden damit zu Medien, ohne die eine Bewegung quasi unmöglich ist. Ein völlig leerer Raum ist deshalb im Rahmen der peripatetischen Physik schon rein kinematisch undenkbar.
Das Vakuum
Auf diese Weise wurde für die nächsten zwei Jahrtausende der Äther zu einem festen Begriff in den Naturwissenschaften. Die Frage nach der Existenz eines „Vakuums“ wurde erst wieder zu Beginn der Neuzeit aktuell, und zwar weniger aus weltanschaulich-philosophischen Gründen, sondern mehr aus rein praktischen Erwägungen. So war schon vor der Zeit Galileis den Bergleuten bekannt, dass man mit normalen Saugpumpen das Wasser nur ungefähr 9 Meter hoch anheben kann. Aus diesem Grund mussten zur Entwässerung von Bergwerken auch Kaskaden von Pumpen gebaut werden. Die Analyse dieser oft benutzten Geräte brachte das Vakuum als Synonym für den „luftleeren Raum“ wieder in das Blickfeld der Forschung. Evangelista Torricelli (1608-1647), dem wohl bekanntesten Schüler Galileis, gelang es 1644 erstmalig einen luftleeren Raum, ein Vakuum, herzustellen. Er füllte in eine rund 90 Zentimeter lange, an ihrem Ende zugeschmolzene Glasröhre Quecksilber, verschloss sie mit einem Finger und tauchte sie mit der Öffnung nach unten in ein Gefäß, welches ebenfalls Quecksilber enthielt. Nach Freigabe der Öffnung konnte er beobachten, wie sich ein rund 14 Zentimeter langer freier Raum oberhalb der Quecksilbersäule ausbildete. Torricelli äußerte die naheliegende Hypothese, dass dieser Raum völlig leer ist und somit ein Vakuum darstellt. Weitere Experimente bewiesen dann auch, dass er Recht hatte. So konnte man z. B. zeigen, dass sich der leere Raum oberhalb der Quecksilbersäule vollständig mit Wasser füllen lässt und somit wirklich leer ist. Trotz dieser offensichtlichen experimentellen Ergebnisse schieden sich aber gerade an diesem Punkt die Geister. Renè Descartes (1596-1650) war beispielsweise ein entschiedener Gegner der Auffassung, dass sich die Welt in einen „korpuskularen Teil“ und in ein Vakuum aufteilt. Mittels einer scharfsinnigen Argumentation suchte er zu beweisen, dass Raum und Substanz eine Einheit bilden. Für ihn gab es in der Welt nichts als sich bewegende Materie. Dieser Standpunkt kommt auch in folgendem Zitat zum Ausdruck:
„Darin aber scheinen mir viele zu irren, dass sie zwar im Himmel eine Flüssigkeit annehmen, aber ihn wie einen leeren Raum vorstellen, der den Bewegungen anderer Körper keinen Widerstand leistet, aber auch keine Kraft hat, sie mit sich zu nehmen. Denn eine solche Leere kann es in der Natur nicht geben, und allen Flüssigkeiten ist es gemeinsam, dass sie nur deshalb den Bewegungen anderer Körper nicht widerstehen, weil sie selbst eine Bewegung in sich haben, und weil diese Bewegungen leicht nach allen Richtungen hin mit einer derartigen Kraft geschehen, dass sie bei einer bestimmten Richtung notwendig alle in ihnen enthaltene Körper mit sich nehmen, soweit keine andere Ursache sie zurückhält, und sie fest, ruhend und hart sind, wie aus dem früheren erhellt. …“
Aufbauend auf der These eines flüssigkeitsähnlichen, den gesamten kosmischen Raum ausfüllenden Äthers entwickelte Descartes in seinem Werk „Principia philosophiae“ (1644) eine Wirbeltheorie, nach der die Bewegung der Himmelskörper ursächlich durch eine Bewegung des Äthers bedingt ist.
Das Faszinierende an seiner Theorie war, dass es ihm gelang, auf plausibel wirkende Weise die Bewegung der Planeten ganz ohne Fernwirkungskräfte zu erklären. Die große Bedeutung der Cartesianischen Ideen in der Wissenschaftsgeschichte liegt weniger in ihrem sachlichen Gehalt. Wichtiger ist vielmehr, dass Descartes nicht nur die prinzipielle Gleichheit irdischer und kosmischer Gesetze betonte, sondern auch die stoffliche Einheit der gesamten Welt hervorhob. In diesem Zusammenhang kann man durchaus Analogien zwischen seinem stofferfüllten Kosmos und dem quan-tenmechanischen Vakuum der gegenwärtigen Physik sehen. In den darauffolgenden Jahrzehnten nach Descartes erfreuten sich Versuche mit dem Vakuum wachsender Beliebtheit. Vakua, die durch Auspumpen von Hohlkörpern entstehen, bezeichnet man gewöhnlich als „technische Vakua“. Sie sind von großer praktischer Bedeutung. Der berühmte Magdeburger Bürgermeister und Ratsherr Otto von Guericke (1602-1686) verbesserte beispielsweise die Luftpumpe bis zur Perfektion und konnte mit ihrer Hilfe Gefäße luftleer pumpen. Sein bekanntester Versuch ist wohl der mit den Magdeburger Halbkugeln.
Er wurde nach seinem Vorschlag 1654 erstmalig durchgeführt und zeigte anschaulich die enorme Kraft des Luftdrucks. Aus dem Innenraum zweier aneinandergesetzter Halbkugeln aus Kupfer ließ er die Luft herauspumpen und es zeigte sich, dass selbst zwei Gespanne von jeweils acht Pferden nicht in der Lage waren, die beiden Halbkugeln zu trennen. Dieses durchaus eindrucksvolle Experiment wird heute noch oft in etwas abgewandelter Form (Pferdemangel) in Physikvorlesungen gezeigt. Weiterhin konnte man schon damals bei weiteren Experimenten feststellen, dass sich im luftleeren Raum zwar Licht, jedoch kein Schall ausbreiten kann. Auch Leben ist im Vakuum nicht möglich. Die Beobachtung, dass sich im Vakuum sowohl Licht als auch Magnetismus ausbreitet (Robert Boyle, 1627-1691) und die von Isaak Newton (1643-1727) postulierte Fernwirkungstheorie der Gravitation zeigte, dass das Vakuum doch nicht völlig eigenschaftslos ist. Denn immerhin musste man ja irgendwie erklären, wieso es möglich ist, dass sich bestimmte Wirkungen durch den leeren Raum ausbreiten.
Der „Weltäther“
Auf diese Weise entstanden verschiedene Konzeptionen eines raumerfüllenden universellen Äthers, der den absoluten Raum Newtons statisch ausfüllen und zugleich als Medium für die Über-tragung von Fernwirkungen dienen sollte. Mit Hilfe des Äthers wollte man vordergründig die in der Physik auftretenden Fernkräfte auf die einsichtigere Nahwirkungskräfte zurückführen. Dass sich beispielsweis die Gravitation ohne Vermittlung eines Mediums durch den leeren Raum ausbreitet, erschien selbst Newton als völlig absurd. Trotzdem blieb die Ätherhypothese in seiner Mechanik völlig formal. Das Problem der Wechselwirkung konnte die Physik des 17. und 18. Jahrhunderts noch nicht lösen. Als Alternative zur Newtonschen Fernwirkungstheorie wurden solche dubiosen Stoffe wie der Wärmestoff (Phlogiston) oder die Lichtsubstanz vorgeschlagen. Sie sollten unwägbar und Bestand-teile des universellen Äthers sein. Im 18. Jahrhundert ist es dann wieder still um den Äther geworden. Viele Wissenschaftler jener Zeit hatten sich mit der Fernwirkung der Gravitation abgefunden. Die Newtonsche Mechanik, ihr axiomatischer Aufbau und ihre erstaunliche und oft bewunderte Vorhersagekraft wurden schlechthin zum Inbegriff einer wissenschaftlichen Theorie. Neben der Mechanik wurde zu dieser Zeit besonders die Optik gepflegt. Zielgerichtete Experimente und theoretische Untersuchungen führten zu einer Wiederentdeckung der von Christian Huygens (1629-1695) in seiner „trait’de lumie’re“ im Jahre 1678 niedergelegten Idee, nach der das Licht ein Wellenvorgang ist. Damit erklärte er systematisch die geradlinige Ausbreitung, die Brechung und die Reflektion von Licht. Auch entwickelte er 1690 eine scharfsinnige, aber leider nur phänomenologische Theorie der Doppelbrechung, ohne jedoch zu erkennen, dass hinter dieser Erscheinung eine neue fundamentale Eigenschaft des Lichtes steckt. Da jedoch Newton in seiner „Optik“ (1704) der Korpusku-larvorstellung den Vorzug gab, konnte sich aufgrund seiner Auto-rität die Wellenvorstellung nicht durchsetzen. Das änderte sich aber, als es 1801 Thomas Young (1773-1829) gelang, die am Doppelspalt beobachteten Interferenzerscheinungen qualitativ mit der Wellentheorie zu erklären. Die Erfahrung zeigte, dass sich das Licht sowohl durch durchsichtige Festkörper, Flüssigkeiten und Gase als auch durch das Vakuum ausbreiten kann. Damals waren den Wissenschaftlern jedoch nur elastische Wellen bekannt. So stand die Frage, warum sich Lichtwellen sowohl in Körpern hoher Elastizität als auch in Körpern geringer oder verschwindender Elastizität ausbreiten können. Um diese Frage zu beantworten, musste man einen hypothetischen Lichtäther einführen, der sowohl das Mikrovakuum als auch das Makrovakuum (d. h. den leeren Raum zwischen den Himmelskörpern) ausfüllen sollte. Diesen Lichtäther stellte man sich einerseits so extrem dünn vor, dass er die Bewegung der Planeten um die Sonne kaum beeinflussen kann. Andererseits sollte er aber auch elastisch genug sein, damit sich das Licht in Form von longitudinalen Ätherwellen in ihm ähnlich wie Schallwellen in der Luft fortpflanzen kann. Den ersten, sehr ernsten Rückschlag erhielt die Idee des elastischen Äthers durch Augustin Fresnel (1788-1827), der sich in seinen Arbeiten wieder mit der Frage der Polarisation des Lichtes auseinandersetzte. Er stellte experimentell fest, dass bei der Wechselwirkung von zueinander senkrecht polarisierten Lichtstrahlen keine Interferenz auftritt. Diese Beobachtung kann man jedoch nur erklären, wenn man annimmt, dass das Licht transversalen Charakter besitzt. Oder anders ausgedrückt: Das Licht ist keine Longitudinalwelle wie beispielsweise eine Schallwelle, sondern eher eine Transversalwelle, wie sie in Festkörpern auftritt. Der Nachweis der Transversalität der Lichtwellen bedeutet demnach, dass sich der Lichtäther ähnlich wie ein Festkörper verhalten muss. Dem widerspricht aber eindeutig die Bewegung der Planeten um die Sonne. Die Entdeckung, dass dem Licht Transversalwellencharakter zuzuschreiben ist, ist ja der eigentliche Kernpunkt des Dilemmas mit dem Äther. Dem Äther mussten Festkörpereigenschaften zugeschrieben werden, wenn er als Trägermedium für das Licht dienen soll. Um die liebgewordene Ätherhypothese zu retten, blieb nichts anderes übrig, als den Lichtäther mit neuen, sich zum Teil widersprechenden Eigenschaften auszustatten. Im Endeffekt konnte man ihm nur einige wenige mechanische Eigenschaften theoretisch widerspruchsfrei zuschreiben. Er sollte ein ruhendes, den ganzen kosmischen Raum ausfüllendes, quasistarres Substrat sein, welches die Aus-breitung von Licht ermöglicht und außerdem ein absolutes Bezugssystem darstellt. Die mechanische Äthertheorie übte jedoch einen solchen Reiz auf die Wissenschaftler aus, dass man trotz der sich immer mehr verschärfenden inneren Widersprüche an einer Präzisierung der eigentlich unhaltbaren Prämissen festhielt. Gelehrte wie Augustin Louis Cauchy (1789-1857), Franz Ernst Neumann (1798-1895) und George Gabriel Stokes (1819-1903) haben daran, wenn auch letztendlich erfolglos, gearbeitet. Noch verwirrender wurde die Situation als es galt, die neuen Erkenntnisse auf dem Gebiet der Elektrizitätslehre und des Magnetismus in dieses Bild einzuarbeiten. Schon seit langem wusste man, dass die Elektrizität und der Magnetismus durch das Vakuum hindurch wirksam sind. Um diese Wirkung adäquat beschreiben zu können, führte der englische Physiker Michael Faraday (1791-1867) den Begriff des elektrischen und magnetischen Feldes ein. Er schuf die experimentellen Grundlagen für die erste große Synthese zweier Kräfte (Faraday’sches Induktionsgesetzt), die James Clerk Maxwell (1831-1879) dann auch mit seiner Theorie des Elektromagnetismus vollzog. Diese Leistung ist nicht hoch genug einzuschätzen. Seine berühmten vier Gleichungen beschreiben die Struktur des elektromagnetischen Feldes, das demnach durchaus real existiert und neben der Substanz eine neue Art von Materie (im physikalischen Sinn) darstellt. Die Maxwellsche Theorie war die erste echte Feldtheorie in der Geschichte der Physik. Eine Interpretation im Rahmen mechanischer Vorstellungen erwies sich jedoch weiterhin als sehr schwierig, wenn nicht ganz unmöglich. Da man auf die Äthervorstellung nicht verzichten wollte, war man gezwungen, ihn weiter zu modifizieren. Auf diese Weise entstanden teilweise unheimlich anmutende Modelle mit einander berührenden Ätherwirbeln und daraus resultierenden Ätherdrücken und Ätherspannungen. Diese Modelle ebneten jedoch den Weg zu der Erkenntnis, dass sich die elektromagnetischen Erscheinungen letztendlich nicht auf die Mechanik zurückführen lassen. Eine unerwartete Konsequenz der Maxwellschen Gleichungen war die Vorhersage elektromagnetischer Wellen. Aus der Theorie konnte man nämlich eindeutig ableiten, dass eine beschleunigt bewegte elektrische Ladung immer elektromagnetische Strahlung emittiert, die sich mit Lichtgeschwindigkeit ausbreitet und dabei Energie transportiert. Elektromagnetische Wellen in Form von Radiowellen wurden einige Zeit später von Heinrich Hertz (1857-1894) experimentell nachgewiesen. Außerdem wurde recht schnell klar, dass das Licht eine elektromagnetische Wellenerscheinung ist. Damit erhielt auch die Optik ein neues Fundament. Was nur noch ausstand, war der direkte Nachweis des Lichtäthers. Überlegungen von Maxwell, aber auch von Hermann Helmholtz (1821-1894) deuteten darauf hin, dass es möglich sein sollte, experimentell eine Bewegung der Erde gegenüber dem als ruhend angenommenen Weltäther festzustellen. Das entsprechende Experiment wurde 1881 von Albert Abraham Michelson (1852-1931) und in stark verbesserter Form 1887 zusammen mit Edward Williams Morley (1838-1923) durchgeführt. Mit Hilfe einer scharfsinnig ersonnenen und präzise aufgebauten Interferometeranordnung (man spricht von einem Michelson-Interferometer) versuchten sie die Geschwindigkeitsdifferenz zwischen einem Lichtstrahl in Richtung der Erdbewegung und einem dazu senkrechten Strahl zu messen. Wenn das Licht eine Ätherwelle ist, dann sollten sich in Bewegungsrichtung der Erde die Lichtgeschwindigkeit und die Erdgeschwindigkeit addieren. Bei Existenz eines Lichtäthers hätte man demnach eine Ge-schwindigkeitsdifferenz messen müssen. Das Experiment und auch alle Folgeexperimente mit immer höherer Genauigkeit ver-liefen jedoch in jeder Hinsicht negativ.
Die Überwindung des „Weltäthers“
Es gibt schlicht keinen „Ätherwind“ und damit auch keinen „Lichtäther“. Stattdessen ergab sich die anschaulich nur schwer zu akzeptierende Erkenntnis: Die Lichtgeschwindigkeit im Vakuum ist vom Bewegungszustand eines Beobachters völlig unabhängig. Während man die Nichtexistenz des Äthers mit seinen exotischen Eigenschaften durchaus verschmerzen konnte, führte die daraus abgeleitete Konstanz der Vakuumlichtgeschwindigkeit zu neuen Konflikten. Es zeigt sich, dass damit die sogenannten Galilei-Transformationen - eine der Grundpfeiler der Klassischen Mechanik - ihre Gültigkeit verlieren. Geschwindigkeiten, die nahe an der Lichtgeschwindigkeit von ~300.000 km/s liegen, lassen sich nicht mehr einfach addieren. Die „Zeit“ selbst ändert sich und hängt vom Bewegungszustand des Bezugssystems ab. Diese wahrhaft revolutionäre Erkenntnis verdanken wir Albert Einstein (1879-1955). 1905 veröffentlichte er die Spezielle Relativitätstheorie, mit der er die Raum-Zeit-Auffassungen der klassischen Physik einer grundlegenden Revision unterwarf. Damit wurden auch der Ätherhypothese endgültig die Grundlagen entzogen. Das Vakuum erwies sich im klassischen Sinn als wirklich leer. Was blieb, waren Teilchen und Felder. Die weitere Geschichte des Vakuums wird durch die ungefähr zur gleichen Zeit entstandene Quantenphysik bestimmt.
Das Quantenvakuum
Insbesondere die Entwicklung relativistischer Quantenfeldtheorien führte zu einem neuen und völlig unerwarteten Vakuumbegriff. Es wurde quasi ein neuer „Äther“ entdeckt, der mit seinem klassischen Vorbild nichts mehr zu tun hat, nichtdestotrotz existent ist und sich in Experimenten messbar bemerkbar macht. Er entsteht dadurch, indem man aus einem Raumgebiet sämtliche realen Elementarteilchen, also Protonen, Neutronen, Elektronen, Photonen und Neutrinos (um nur einige zu nennen) entfernt. Das auf diese Weise entstandene Vakuum bezeichnet man als physikalisches Vakuum oder kurz „Quantenvakuum“. Es stellt quasi die experimentell maximal erreichbare „Leere“ dar. Vom mathematischen Vakuum unterscheidet es sich durch den Umstand, dass es weiterhin mit Feldern, die sich in ihrem energetischen Grund-zustand befinden, durchsetzt ist. Das mathematische Vakuum stellt dagegen lediglich eine Abstraktion dar. Es lässt sich prinzipiell nicht herstellen. Das „Quantenvakuum“ ist das maximal erreichbare „Nichts“ der Natur. Klassisch lassen sich ihm Eigen-schaften wie eine endliche elektrische und magnetische Feldkonstante zuordnen, deren Wurzel ihres Produktes gerade den Kehrwert der Vakuum-Lichtgeschwindigkeit ergibt. Quantenmechanisch stellt es den tiefsten stabilen Zustand dar, den ein Raumgebiet bei Durchsetzung mit physikalischen Feldern annehmen kann. Dazu muss man wissen, dass in Quantenfeldtheorien jedes Elementarteilchen durch ein Feld beschrieben wird. Ein derartiges Quantenfeld im Vakuumzustand bedeutet, dass keine realen Elementarteilchen vorhanden sind, d. h. die sogenannte Nullpunktsenergie des Feldes (sie ist immer größer Null) reicht nicht aus, um „reale Teilchen“ zu erschaffen. Sie reicht aber aus, dass ständig sogenannte virtuelle Teilchen und Antiteilchen entstehen, die aber innerhalb einer Zeitschranke, die durch die Heisenbergsche Energieunschärfebeziehung gegeben ist, wieder vergehen. Die von der Quantentheorie vorhergesagten „Nullpunktfluktuationen“ zeigen, dass das Quantenvakuum nur im Mittel „leer“ erscheint. Es verhält sich, um einmal eine Analogie zu bemühen, wie die Oberfläche des Ozeans, betrachtet aus einer Raumstation. Je mehr man sich beim Abstieg ihrer Oberfläche nähert, umso stärker treten ihre Wellen in Erscheinung. Könnte man das physikalische Vakuum bis auf eine Längenskala in der Größenordnung der Planck-Länge (~10^-35 m) auflösen, würde man so etwas wie einen „Quantenschaum“ höchster Dynamik erkennen - quasi einen brodelnden See aus Teilchen und Antiteilchen aller Art. Das Quantenvakuum enthält demnach virtuell das gesamte Teilchenspektrum aller bekannten und noch unbekannten Elementarpartikel. Schon deshalb ist zu erwarten, dass das physikalische Vakuum direkten Einfluss auf die beobachtbaren Parameter, wie beispielsweise auf die elektrische Ladung eines Elementarteilchens, nimmt. Und genau das ist auch der Fall, wie eine Vielzahl von Experimenten zeigen. Unter bestimmten Bedingungen können die virtuellen Teilchen „materialisieren“, d. h. zu realen Teilchen werden. Das geschieht beispielsweise bei Zusammenstößen von Elementarteilchen in Teil-chenbeschleunigern oder in der unmittelbaren Nähe des Ereignishorizontes eines Schwarzen Loches. Im letzteren Fall spricht man von der Hawking-Strahlung (benannt nach ihrem Entdecker Stephen Hawking), die dazu führt, dass auch Schwarze Löcher letztendlich nicht ewig leben. Eine wichtige Eigenschaft des Quantenvakuums ist, dass ihm raum-zeitliche Bezüge fehlen, oder, anders formuliert, ein Beobachter darf niemals relativ zur „Nullpunktstrahlung“ des Quantenvakuums seinen eigenen Bewegungszustand festzustellen in der Lage sein.
Der Unruh-Effekt
Diese Forderung führt zu interessanten Konsequenzen, wie bereits 1976 der kanadische Physiker William G. Unruh festgestellt hat. Er hat sich dazu ein „Gedankenexperiment“ ausgedacht, dass ich hier, ohne zu sehr die technischen Termini zu bemühen, kurz vorstellen möchte, da es zeigt, wie man reale Wärmestrahlung aus dem Quantenvakuum erzeugen kann. Eine Aufzugskabine aus einem ideal elektrisch leitenden Material (diese Einschränkung ist notwendig, damit keine elektromagnetische Strahlung von „außen“ in den Kasten eindringen kann, Stichwort universeller Faraday’scher Käfig) befinde sich irgendwo im Kosmos weitab von störenden Gravitationsfeldern. Im Inneren wie auch außerhalb des Kastens herrsche absolutes Vakuum. Die Frage, die sich William Unruh gestellt hat, ist: „Was passiert, wenn dieser Aufzugskasten gleichmäßig beschleunigt wird?“ Wie man bereits im Rahmen der klassischen Elektrodynamik zeigen kann, emittiert genau in dem Augenblick, bei dem die Beschleunigung einsetzt, der ideal leitende Kabinenboden eine elektromagnetische Welle, die sich in Richtung Decke mit Lichtgeschwindigkeit ausbreitet. Dort wird sie reflektiert, wobei sie einen kleinen Teil ihrer Energie an die Decken-Atome abgibt. Dabei werden Photonen emittiert, deren Spektrum rein thermisch ist und damit dem Planck’schen Strahlungsgesetz gehorcht. Als Ergebnis des Beschleunigungsvorgangs erhält man im Inneren der Aufzugskabine ein stark verdünntes Photonengas aus realen Photonen. Gedanklich macht es überhaupt keine Schwierigkeiten, diese Photonen aus dem Inneren der Kabine abzusaugen und damit zu entfernen. Man muss lediglich die Kabine entsprechend abkühlen. Auf diese Weise entsteht im Kabineninneren wiederum ein Vakuum, das sich aber deutlich von dem Vakuum außerhalb des Kastens unterscheidet. Am deutlichsten erkennt man das, wenn man jeweils einen Photonen-Detektor innerhalb und außerhalb des Aufzugs anbringt und ihre Ausschläge vergleicht. Während der innere Detektor in Bezug auf das Kasteninnere in Ruhe ist, bewegt sich der außen angebrachte Detektor in Bezug auf das umgebende Vakuum beschleunigt. Er muss deshalb auf die Nullpunktfluktuationen des Quantenvakuums reagieren und zeigt deshalb die Präsenz realer Photonen an, während der Detektor im Inneren des Aufzugskastens keinen Ausschlag zeigt. Das bedeutet, dass sich das „innere“ Vakuum auch energetisch von dem „äußeren“ Vakuum unterscheiden muss. Das äußere Vakuum ist ja gerade durch den Umstand, dass seine Energie im Mittel verschwindet, definiert. Akzeptiert man diese Definition, dann ist es vernünftig, dem Vakuum im Inneren des Aufzugskastens eine negative Energie zuzuordnen. Eine Annäherung beider Vakua-Energien ist nur insofern möglich, wenn man die „abgesaugten“ Photonen wieder in den Kasten einbringt. Dann würde sich das „äußere“ Vakuum nicht mehr von dem „inneren“ Vakuum unterscheiden und beide hätten die gleiche Energie. Aus diesen Betrachtungen folgt, dass sich für einen beschleunigten Beobachter dem Spektrum der „Nullpunktstrahlung“ ein Schwarzkörperspektrum überlagert, was dazu führt, dass sich die Nullpunktfluktuationen verstärken. Er bekommt demnach den Eindruck, als ob er sich in einem Strahlungsfeld mit einer von der Größe der Beschleunigung abhängigen Temperatur bewegt. Eine interessante Übungsaufgabe für einen angehenden theoretischen Physiker ist es deshalb, auszurechnen, wie stark man den Aufzug im völlig leeren Weltraum beschleunigen muss (und zwar ohne die Photonen abzusaugen), damit sich sein Inneres in einen komfortablen Backofen verwandelt... (Lösung ~1,2*10^23 m/s²). Dieses Szenario entspricht übrigens ziemlich genau - wegen der Äquivalenz zwischen Schwerkraft und Beschleunigung - den Verhältnissen im Bereich des Ereignishorizontes eines genügend kleinen Schwarzen Lochs. Nutzt man den dortigen Wert für die Schwerebeschleunigung, dann erhält man auch eine entsprechende Unruh-Temperatur und ein damit verbundenes thermisches Strahlungsfeld, die bereits erwähnte Hawking-Strahlung. Solche und ähnliche Überlegungen zeigen, dass die kosmische Leere eine ganz spezielle „Leere“ ist, die sich im Licht der modernen Quantenfeldtheorien als ein hoch dynamischer Untergrund der Welt, als ein Quantenvakuum, entpuppt - quasi ein neuer „Äther“, der mit der klassischen Äthervorstellung nichts mehr zu tun hat. Wenn man den „Weltanfang“ verstehen möchte, muss man auf geeignete Weise das Quantenkalkül in die Beschreibung dieses „Anfangs“ (was für uns einen Anfang in der Zeit bedeutet) mit einbeziehen. Dieser Aufgabe unterzieht sich die sogenannte „Quantenkosmologie“, die sich u. a. bemüht, das Singularitätenproblem der klassischen Kosmologie zu lösen (unendlich kleiner und dichter Materiezustand zum Zeitpunkt Null). Sie ist zwar immer noch hochgradig hypothetisch, aber es scheint so, dass sie vielleicht einmal in der Lage sein wird, den „Urknall“ physikalisch zu erklären. Ihre Grundlage bildet die sogenannte Quantengravitation, d. h. eine Theorie, die auch die Schwerkraft quantenphysikalisch einbezieht und von der es gegenwärtig zwar eine ganze Anzahl verschiedener theoretischer Ansätze, aber noch keine ausgearbeitete Theorie gibt. Das ist zu beachten, wenn man etwas über Branenwelten, Schleifen-Quantengravitation, ekpyrotische Universen oder ähnliches liest.
...
Keine Kommentare:
Kommentar veröffentlichen