Kosmologie - Josef M. Gaßner - E-Book
SONDERANGEBOT

Kosmologie E-Book

Josef M. Gaßner

0,0
18,99 €
Niedrigster Preis in 30 Tagen: 18,99 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

In »Kosmologie« vermitteln der theoretische Astrophysiker und Kosmologe Josef M. Gaßner und der Experimentalphysiker Jörn Müller die größte Geschichte aller Zeiten: die moderne Kosmologie.  Es geht um nicht weniger als um alles: Woher wir kommen – wohin wir gehen – und was zwischendurch passiert. In anschaulicher und allgemeinverständlicher Weise, die mathematische Exkurse nicht ausschließt, ebnen die Autoren den Weg zu einem tieferen Verständnis. Auch bei notwendigen Vereinfachungen bleiben sie stets wissenschaftlich korrekt, und beantworten eine Reihe von Fragen, die sonst in der populärwissenschaftlichen Literatur ausgespart werden: Was hat den Urknall ausgelöst und was war davor? Wie groß ist das Universum und was ist außerhalb? Wie expandiert der Kosmos? Expandieren Raum, Zeit und auch wir? Ist unsere dreidimensionale Welt nur eine holographische Projektion? Warum sind die Objekte im Universum genau so und nicht anders? Ist Leben ein ewiges Erfolgsmodell oder wird es enden?  Auf dem Weg dorthin behandeln die Autoren das Informationsparadoxon Schwarzer Löcher, die Hawkingstrahlung und die Rindler-Raumzeit. Sie berichten von Objekten heißer als unendlich, die groß sind wie ein Planet und dennoch den Gesetzen des Allerkleinsten – der Quantenmechanik – gehorchen. Sie erzählen von Dunkler Materie, Dunkler Energie, negativem Druck, entropischer Gravitation und führen den Leser anhand der Friedmann-Gleichungen bis an den Anfang allen Seins: den Urknall. Auf der Suche nach unserer eigenen Herkunft geben die Primordiale Nukleosynthese, die Kosmische Hintergrundstrahlung, die Strukturbildung im Kosmos, Galaxien, Sterne und nicht zuletzt die Metamorphose von toter Materie zu lebenden Organismen die entscheidenden Antworten.  Wer sich auf dieses Buch einlässt, wird unsere Welt und die eigene Existenz mit völlig neuen Augen betrachten! 

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB

Seitenzahl: 609

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Josef M. Gaßner | Jörn Müller

Kosmologie

Die größte Geschichte aller Zeiten

 

 

Über dieses Buch

 

 

Was hat den Urknall ausgelöst und was war davor? Gibt es räumliche und zeitliche Grenzen? Ist Leben ein ewiges Erfolgsmodell oder wird es enden?

Diesen und vielen weiteren Fragen gehen der Astrophysiker und Kosmologe Josef M. Gaßner und der Experimentalphysiker Jörn Müller in gewohnt anschaulicher Weise auf den Grund. Es geht um das Informationsparadoxon Schwarzer Löcher, die Hawkingstrahlung oder auch die Rindler-Raumzeit. Sie berichten von unendlich heißen Objekten, die groß sind wie ein Planet und dennoch den Gesetzen des Allerkleinsten – der Quantenmechanik – gehorchen. Sie erzählen von Dunkler Materie, Dunkler Energie, negativem Druck, entropischer Gravitation und vielem mehr. 

 

Wer sich auf dieses Buch einlässt, wird unsere Welt und die eigene Existenz mit völlig neuen Augen betrachten!

 

 

Weitere Informationen finden Sie auf www.fischerverlage.de

Biografie

 

 

Josef M. Gaßner ist Grundlagenforscher, Betreiber des wissenschaftlichen YouTube-Kanals »Urknall, Weltall und das Leben« und Lehrbeauftragter für Naturwissenschaft, Astronomie und Kosmologie an der Hochschule für angewandte Wissenschaft in Landshut. Gemeinsam mit Harald Lesch schrieb er 2012 den großen Erfolg »Urknall, Weltall und das Leben«. Das vorliegende Buch basiert, ebenso wie das 2019 bei S. Fischer erschienene »Können wir die Welt verstehen?«, auf einer Vorlesungsreihe, die bei YouTube bereits mehrere Millionen Aufrufe verzeichnet.

 

Jörn Müller ist Physiker und hat am Deutschen Elektronensynchotron »DESY« promoviert. Er arbeitete im Bereich Optik und Elektrofotografie sowie an der Entwicklung von Hochenergielasern. 

Inhalt

Prolog

1. Thermodynamik

1.1 Wärmelehre

1.2 Erster Hauptsatz der Thermodynamik

1.3 Statistische Thermodynamik – Mikrozustände

1.4 Boltzmann-Faktor

1.5 Negative absolute Temperatur

1.6 Unruh-Effekt, Hawking-Strahlung, Rindler-Raumzeit

1.7 Entropie, Informationsdefizit, Informationsparadoxon Schwarzer Löcher

1.8 Der Maxwellsche Dämon – Zweiter Hauptsatz der Thermodynamik

2. Urknall und Expansion

2.1 Das Universum expandiert

2.2 Die erste Friedmann-Gleichung

2.3 Verschiedene Epochen des Universums

2.4 Zweite Friedmann-Gleichung – Welche Kraft übt die Expansion aus?

2.5 Friedmann-Gleichung ohne Singularität – Steady State

2.6 Schleifenquantentheorie und Lichtermüdung

2.7 Das Horizontproblem

2.8 Das Flachheitsproblem

2.9 Magnetische Monopole

2.10 Kosmische Inflation – der Knall des Urknalls

2.11 Ewige Inflation

3. Das Holographische Prinzip

3.1 Bekenstein-Limit

3.2 Entropische Gravitation

4. Dunkle Materie

5. Entfernungen und Horizonte

6. Antimaterie und Baryogenese

7. Primordiale Nukleosynthese

7.1 Entstehung der leichten Elemente

7.2 Beobachtungsdaten zu den einzelnen Häufigkeiten

7.2.1 Deuterium

7.2.2 Tritium

7.2.3 Helium-3

7.2.4 Helium-4

7.2.5 Lithium

7.3 Fazit

8. Zeitlicher Überblick

9. Analyse der Kosmischen Hintergrundstrahlung

9.1 Baryonische akustische Oszillation

9.2 Das Leistungsspektrum der Kosmischen Hintergrundstrahlung

9.3 Der Sachs-Wolfe-Effekt

9.4 Baryonische akustische Oszillationen im Leistungsspektrum

9.5 Die Silk-Dämpfung

9.6 Analyse des Leistungsspektrums

9.7 Himmelsdurchmusterungen – SDSS (Sloan Digital Sky Survey)

10. Sterne

10.1 Spektralanalyse und Klassifikation

10.2 Das Hertzsprung-Russell-Diagramm

10.3 Unser lokales Medium

10.4 Interstellares Medium und Sternentstehung

10.5 Stellare Nukleosynthese

10.5.1 Die Proton-Proton-Reaktionskette

10.5.2 Der CNO-Prozess

10.5.3 Hydrostatisches Gleichgewicht – Hauptreihe

10.5.4 Rote Riesen, Weiße Zwerge, Planetare Nebel

10.5.5 Sterne von drei bis acht Sonnenmassen

10.5.6 Massereiche Sterne mit mehr als acht Sonnenmassen

10.6 Neutronensterne

10.7 Pulsare

10.8 Supernova Ia

10.9 Stellare Schwarze Löcher

10.10 Entstehung der Elemente schwerer als Eisen

10.11 Bedeckungsveränderliche

10.12 Überblick

11. Galaxien

11.1 Elliptische Galaxien

11.2 Lentikuläre Galaxien

11.3 Spiral- oder Scheibengalaxien

11.4 Balkenspiralgalaxien

11.5 Irreguläre Galaxien

11.6 Galaxien-Merger

11.7 Aktive Galaktische Kerne (AGN)

11.8 Fazit

12. Anthropisches Prinzip

Dank

Bildnachweis

Register

Prolog

Das Universum ist kalt, finster und leer, und mit jedem Augenblick verstärkt es diese Eigenschaften noch. Auf den ersten Blick offenbart es sich auf unvorstellbar großen Skalen als ein Ort, der lebensfeindlicher kaum sein könnte.

Schaut man jedoch genauer hin, finden sich vereinzelte Inseln des Lichts im Ozean der Dunkelheit. In diesen sogenannten Galaxien haben sich bizarre Objekte zu einer illustren Gesellschaft zusammengefunden. Auch sie ist geprägt von Lebensfeindlichkeit: unzählige Plasmasterne mit extrem hohen Temperaturen, Pulsare mit absurd starken Magnetfeldern und die ewig hungrigen Schwarzen Löcher, die scheinbar nur danach trachten, alles zu vernichten, was sich in ihre Nähe wagt. 

Weiter draußen – gewissermaßen in den Vororten der Galaxien – herrschen etwas gemäßigtere Bedingungen, die bedrohlichsten Objekte zeigen sich hier selten. Das ermöglicht in entlegenen Hinterhöfen die friedliche Existenz von Planetensystemen, die über Jahrmilliarden ungestört ihre Bahnen um ihren Heimatstern ziehen.

Auf dem dritten Felsenplaneten um einen dieser durchschnittlichen Sterne hat sich eine rätselhafte Metamorphose vollzogen: die Selbstorganisation von toter Materie zu lebenden Organismen. Dieses Leben hat sich in seiner Nische, inmitten dieses scheinbar lebensfeindlichen Universums, stetig weiterentwickelt, vom ersten Schritt auf das Festland bis zum ersten Schritt auf dem Mond. Das Leben ist sich seiner selbst bewusst geworden und stellt Fragen: Woher kommen wir, und wohin gehen wir? Oder, etwas wissenschaftlicher ausgedrückt: Wie ist dieses Universum entstanden, und wie wird es enden? Ist es überhaupt endlich – gibt es eine zeitliche und räumliche Grenze? Wenn ja, was war davor, und was ist außerhalb? Können wir das Universum verstehen?

Viele Generationen einer besonders neugierigen Spezies aus der Gattung der Trockennasenaffen tragen unermüdlich Mosaiksteine der Erkenntnis zu einem Weltbild zusammen. Sie beginnen das Universum zumindest ansatzweise zu begreifen. Die Ergebnisse sind faszinierend und verblüffend zugleich: Vier fundamentale Kräfte scheinen das Universum zu beherrschen: die Gravitation, der Elektromagnetismus, die Starke und die Schwache Kernkraft. Wechselwirkungen, die unterschiedlicher kaum sein könnten – die einen spielen sich innerhalb von Atomen ab, während die anderen unendlich weit ins Weltall hinausreichen. Außer in ihrer Reichweite unterscheiden sich die Kräfte auch in ihrer Stärke um viele Größenordnungen. Alle Objekte, von Atomkernen bis hin zu Galaxienhaufen, müssen ein Gleichgewicht zwischen diesen Kräften aushandeln. Viele Prozesse verändern dabei fortwährend die Rahmenbedingungen, wodurch es sich zumeist um zeitlich befristete, labile Konstellationen handelt. Die Zeitskalen, auf denen sich diese Veränderungen abspielen, sind für uns Menschen kaum vorstellbar: Zerfälle in der Welt des Allerkleinsten spielen sich typischerweise in 10–24 Sekunden ab, Sternenleben hingegen in Milliarden von Jahren. Dass wir angesichts dieser entmutigenden Voraussetzungen überhaupt in der Lage sind, ein schlüssiges Weltbild zu entwickeln, ist für mich persönlich eine der größten Errungenschaften unserer Spezies.

Unser Anliegen ist es, die Faszination dieser Erkenntnisse mit Ihnen zu teilen und gemeinsam zu feiern. Dabei werden wir auf die großen Theorien der Wissenschaft zurückgreifen, die wir detailliert bereits im 2019 erschienenen Buch Können wir die Welt verstehen? präsentiert haben. Wer es nicht gelesen hat, muss sich keine Sorgen machen. Das vorliegende Buch soll auch für Quereinsteiger verständlich sein und die notwendigen Grundlagen vermitteln. In gewohnter Manier werden wir dabei stets so weit wie möglich vereinfachen, jedoch nie weiter, als es wissenschaftlich korrekt wäre. Wo es uns für ein tiefgehendes Verständnis unerlässlich erscheint, werden wir auch auf die Sprache der Mathematik zurückgreifen. Schwierige Passagen, die Sie für den roten Faden nicht zwingend benötigen, werden durch das Verkehrszeichen »Vorsicht, Schleudergefahr!« gekennzeichnet.

Zum Einstieg holen wir zunächst etwas Schwung in der Thermodynamik als treibender Kraft der Veränderung. Das wird unsere Vorstellung von Realität bereits ordentlich durchschütteln. Dann wenden wir die großen wissenschaftlichen Theorien auf das Universum als Ganzes an – das führt uns zur Kosmologie. Vom Verständnis des Urknalls gelangen wir über die Expansion des Universums zur Strukturbildung bis hin zu den Sternen und Galaxien. Dabei werden wir feststellen, dass alle oben genannten Objekte im Universum nicht für sich allein stehen, sondern vielmehr Teile eines großen kosmischen Materiekreislaufs sind. Auch wir Menschen bestehen überwiegend aus den chemischen Elementen, die im Inneren von Sternen gebildet werden. Ja, wir Menschen sind tatsächlich Kinder der Sterne, die wiederum Produkte der besagten vier Grundkräfte sind.

Das wird uns einen zweiten, tieferen Blick auf unser Universum ermöglichen. Ohne die individuelle Feinabstimmung der fundamentalen Kräfte gäbe es uns nicht. Wie bereits angesprochen, sind auch die eingangs als lebensfeindlich eingestuften Objekte Produkte dieser Kräfte. Sterne sind nur deswegen so gewaltige Plasmabälle, weil die Gravitation um viele Größenordnungen schwächer ist als der Elektromagnetismus und es daher gewaltiger Massen bedarf, um die gegenseitige elektromagnetische Abstoßung geladener Atomkerne zu überwinden und die elementaren Bestandteile unseres Körpers zu fusionieren. Am Ende des Sternenlebens führt diese große Masse zu bizarren Sternleichen wie Pulsaren oder Schwarzen Löchern. Aus diesem Blickwinkel betrachtet sind die Sterne sogar äußerst lebensfreundlich – ein Universum ohne sie wäre definitiv auch ein Universum ohne uns. Warum letztlich alles so geworden ist, wie wir es heute vorfinden, ist nach wie vor ein großes Rätsel und wird Anlass sein für einen Blick über den Tellerrand der Naturwissenschaft.

Begleiten Sie uns also durch die größte Geschichte aller Zeiten – es wird um nicht weniger gehen als um alles. Versuchen wir gemeinsam, das Universum, in dem wir leben, zu verstehen. Unterwegs machen wir Station beim Informationsparadoxon Schwarzer Löcher, der Hawking-Strahlung und der Rindler-Raumzeit. Wir begegnen Objekten, die heißer als unendlich sind, groß wie ein Planet und dennoch dominiert von den Gesetzen des Allerkleinsten – der Quantenmechanik. Dunkle Materie, Dunkle Energie, negativer Druck, Entropische Gravitation und die Friedmann-Gleichungen führen uns bis an den Anfang allen Seins: zum Urknall. Auf der Suche nach unserer eigenen Herkunft geben die Primordiale Nukleosynthese, die Kosmische Hintergrundstrahlung, die Strukturbildung im Kosmos, Galaxien, Sterne und nicht zuletzt die Metamorphose von toter Materie zu lebenden Organismen die entscheidenden Antworten.

Zu den einzelnen Kapiteln finden Sie auf unserem YouTube-Kanal »Urknall, Weltall und das Leben« ergänzende Videos – im Buch verlinken QR-Codes auch direkt dorthin. Sollten trotzdem Fragen offenbleiben, stehen wir Ihnen gern auf unserer Webseite www.urknall-weltall-leben.de unter »Fragen zu Büchern/Videos« zur Verfügung – dort erstellen wir auch ein Erratum.

Abschließend noch eine Warnung: Wenn Sie sich auf dieses Buch einlassen, dann werden Sie mit schier unglaublichen Dingen und Fakten konfrontiert, die Sie eventuell an ihrem Verstand zweifeln lassen. Aber Sie werden auch Zusammenhänge erkennen, die sich bei oberflächlicher Betrachtung nicht ohne weiteres erschließen. Oder anders ausgedrückt: Sie werden die Welt und Ihre Existenz mit anderen Augen sehen.

1.Thermodynamik

Motor der Veränderung

Bevor wir die großen Theorien der Wissenschaft auf das Universum als Ganzes anwenden, müssen wir eine grundsätzliche Frage klären: Dürfen wir das überhaupt? Kann man das Werden und Vergehen des Kosmos durch die Brille der modernen Theoretischen Physik erkennen und schlüssig verstehen? Unser Weltbild setzt sich aus vielen eigenständigen Theorien unterschiedlicher Epochen zusammen. Wenn wir beispielsweise in diesem Kapitel mit den Grundlagen der Thermodynamik als treibender Kraft der Veränderung beginnen, dürfen wir dann moderne physikalische Modelle und Theorien, die erst viele Generationen nach den Begründern dieser Disziplin entwickelt wurden, gewissermaßen als Quereinstieg in die Thermodynamik nutzen?

Die Antwort ist ein eindeutiges Ja! Denn eines der vielleicht wichtigsten Prinzipien in der Grundlagenforschung besagt: Das Universum kennt keine Fachgebiete, oder wissenschaftlich gesprochen: Es kennt keine Fakultäten. Wir sind es gewohnt, die Naturwissenschaft in Themenfelder zu gliedern, die wir dann z.B. als Physik, Chemie, Biologie usw. bezeichnen. Entsprechend werden an den Universitäten Fakultäten für diese Fachbereiche eingerichtet, in denen hochspezialisierte Wissenschaftler an immer spezielleren Aufgabenstellungen arbeiten, was dazu führt, dass sie schließlich von einem immer engeren Teilbereich immer mehr wissen. Böse Zungen behaupten sogar: bis sie am Ende von nichts alles wissen.

Die Natur jedoch kennt diese Fakultäten nicht! Die Geschehnisse im Universum halten sich nicht an das Motto: Hoppla, hier überschreite ich die Grenze zur Chemie oder zu was auch immer, und ab hier gelten bestimmte Gesetze, die es ab jetzt einzuhalten gilt. Nein! So ist es nicht! Alles hängt mit allem zusammen: keine Chemie ohne Physik, keine Biologie ohne Chemie, keine Medizin ohne Biologie und letztlich auch keine Medizin ohne Physik, wobei sich der Kreis schließt. Weil es so wichtig ist, sei es nochmals wiederholt: Die Natur unterscheidet nicht zwischen diversen Fakultäten!

Mit dieser Erkenntnis im Gepäck wollen wir den mächtigen Werkzeugkoffer der Theoretischen Physik nutzen, um unser modernes naturwissenschaftliches Weltbild zu erweitern. Beginnen wir mit der Thermodynamik, die für das Verständnis eines Kosmos unerlässlich ist, der sich aus einem extrem heißen Anfangszustand heraus über eine Epoche des thermodynamischen Gleichgewichts schließlich in das uns vertraute, fortwährend expandierende und somit stetig kühler werdende Universum entwickelt hat. Viele Prozesse entlang dieser Geschichte werden wesentlich von Begriffen wie Temperatur, thermische Strahlung, thermischer Druck, Entropie und den Hauptsätzen der Thermodynamik bestimmt. Wundern Sie sich deshalb bitte nicht, dass wir ein Kapitel mit Grundlagen hierzu voranstellen.

1.1Wärmelehre

Betrachtet man die historische Entwicklung der Thermodynamik, so fällt auf, dass daran viele Personen aus verschiedenen Themen- und Wissenschaftsbereichen und aus unterschiedlichen Beweggründen beteiligt waren. So wurde die Thermodynamik wie kaum ein anderer Bereich der Naturwissenschaft zunächst vom Maschinenbau geprägt. Das Paradebeispiel ist die Dampfmaschine, deren Erfindung gern fälschlicherweise dem Schotten James Watt zugeschrieben wird. Blättert man jedoch in den Annalen zur Geschichte der Technik, so erfährt man, dass der französische Physiker Denis Papin (1647–1713) bereits 1690 das Funktionsprinzip dieser Maschine beschrieben und eine erste Dampfdruckpumpe gebaut hat.

1.1 Denis Papin (1647–1713)

Anhand dieser Vorarbeiten entstand einige Jahre später unter der Leitung des englischen Ingenieurs Thomas Savery (1650–1715) eine einfache Maschine zum Entwässern von Bergwerkstollen. Doch die erste wirklich praxistaugliche Maschine dieser Art geht auf Thomas Newcomen (1663–1729) zurück und wurde 1712 an ein Bergwerk in Staffordshire ausgeliefert. Erst 1759 hat sich dann James Watt (1736–1819) intensiv mit der Technik der Dampfmaschine beschäftigt und sie schließlich im gleichen Jahr zum Patent angemeldet. In der Folgezeit erschloss sich diese Maschine immer mehr Anwendungsbereiche, bis sie schließlich in Form der Dampflokomotive auf Schienen gesetzt wurde und die Welt eroberte.

1.2 James Watt (1736–1819)

Oberstes Ziel aller Anstrengungen war es, diese Maschinen möglichst effizient zu gestalten. 1824 veröffentlichte Sadi Carnot (1796–1832) eine Arbeit, in der er vorschlug, mit Hilfe von Kreisprozessen, also mit periodisch arbeitenden Maschinen, zu einer höheren Effizienz zu gelangen. Später wurde die Entwicklung derartiger Maschinen zu einer regelrechten Wissenschaft. Aber immer ging es dabei um Gase in einem Zylinder mit einem Kolben, es ging um Druck, Volumen, Temperatur, um Arbeit und um Wirkungsgrade.

1.3 Julius Robert von Mayer (1814–1878)

Auch die Medizin kam ins Spiel. So war dem deutschen Arzt Julius Robert von Mayer (1814–1878) aufgefallen, dass sich Muskeln erwärmen, wenn sie Arbeit verrichten müssen. Wenn Sie einmal zügig eine längere Treppe hochlaufen, so können Sie das in einem Selbstversuch leicht überprüfen. Aufgrund dieser Erfahrung postulierte Mayer: Wärme ist eine andere Form von Energie. Zu dem gleichen Schluss gelangte, unabhängig von Mayer, auch Hermann von Helmholtz (1821–1894), nachdem er ein theoretisches Konzept zur Umwandlung von Energie in Wärme entwickelt hatte.

1.4 Hermann von Helmholtz (1821–1894)

Um 1850 machte sich James Joule (1818–1889), ein Bierbrauer aus Salford bei Manchester, darüber Gedanken, wie viel Energie nötig ist, um die Temperatur von einem Liter Flüssigkeit um ein Grad Celsius zu erhöhen. Zusammen mit William Thomson, dem späteren Lord Kelvin (1824–1907), untersuchte er auch, wie sich die Temperatur eines in einem Gefäß eingeschlossenen Gases verhält, wenn man den Druck verändert.

1.5 James Joule (1818–1889)

In diesem Zusammenhang müssen auch noch Rudolf Clausius (1822–1888) und Ludwig Boltzmann (1844–1906) erwähnt werden. Ersterer beschäftigte sich mit dem Druck in einem Gas, als dessen Ursache er die mittlere Bewegungsenergie der Gasmoleküle vermutete. Boltzmann wiederum ging die Probleme mit statistischen Verfahren an und deutete die thermodynamische Variable Entropie als statistische Größe. Neben den erwähnten Personen haben noch viele andere wichtige Beiträge zur Thermodynamik geliefert, die wir hier nicht alle erwähnen können. Im Endeffekt gipfelten schließlich alle Arbeiten in den sogenannten drei Hauptsätzen der Thermodynamik.

1.2Erster Hauptsatz der Thermodynamik

Der Erste Hauptsatz besagt nichts anderes, als dass unterschiedliche Energieformen, wie z.B. Arbeit oder Wärme, ineinander umwandelbar sind, wobei die Energie dem Betrag nach erhalten bleibt. Folglich ist der Erste Hauptsatz im Prinzip ein Energieerhaltungssatz. Generell setzt sich die Energie E eines Systems zusammen aus der Arbeit W, die im System verrichtet wird, und einer Wärmemenge Q. Als Gleichung geschrieben bedeutet das: E = W + Q.

Eine Änderung der Energie bedingt somit eine Änderung in der Arbeit oder der Wärme oder eine Änderung beider Größen. Bezeichnen wir die Änderungen mit einem Δ, so lautet die Gleichung:

  (1.1)

Das ΔQ in (1.1) bezeichnet man übrigens auch als Abwärme.

1.6 Rudolf Clausius (1822–1888)

An dieser Stelle kommt nun Rudolf Clausius (1822–1888) ins Spiel. Er hat sich diese (Ab-)Wärme Q genauer angesehen und eine weitere Größe eingeführt, die zu der Wärmeänderung ΔQ in Beziehung steht. Clausius stellte fest, dass mit einer Änderung der Wärme Q bei einer gegebenen Temperatur T auch die Änderung einer neuen Größe S verbunden ist, die er Entropie nannte:

  (1.2)

Dass in (1.2) die linke und die rechte Seite gleich sind, d.h. dass ein Gleichheitszeichen zu stehen kommt, gilt nur im Falle idealisierter Prozesse, die reversibel verlaufen, die also als Kreisprozesse in einer Schleife ohne Verluste wieder am Ausgangspunkt ankommen. Beispielsweise könnte ein ideal elastischer Gummiball, den man aus einer gewissen Höhe auf eine Steinplatte fallen lässt, dort abprallen und wieder auf die Ausgangshöhe zurückspringen. Dazu dürfte aber die Wärme, die beim Aufprall des Balles durch dessen Verformung entsteht, nicht verlorengehen, sondern müsste komplett wieder in Bewegungsenergie umgewandelt werden und zur Bewegungsenergie des zurückprallenden Gummiballes beitragen. Bislang hat man Derartiges jedoch noch nicht beobachtet.

1.7 Sadi Carnot (1796–1832)

Mit solchen sogenannten idealen Kreisprozessen hat sich auch Sadi Carnot beschäftigt. Anstelle von Gummibällen untersuchte er das Verhalten von in einen Zylinder mit beweglichem Kolben eingesperrten Gasen und ob man damit Arbeit verrichten könne. Zu diesem Thema hatten bereits Robert Boyle (1626–1691) und Edme Mariotte (1620–1684) sowie Joseph Louis Gay-Lussac (1778–1850) Vorarbeit geleistet und festgestellt, dass der Druck eines in einem Zylinder eingesperrten Gases multipliziert mit seinem Volumen eine Prozesskonstante darstellt, dass also gilt:

  (1.3)

Demnach nimmt der Gasdruck ab, wenn man durch ein Herausziehen des Kolbens aus dem Zylinder das Volumen des Gases vergrößert und umgekehrt. Am Produkt p mal V ändert sich nichts. Später stellte sich heraus, dass sich die Konstante aus drei Größen zusammensetzt: der Anzahl N der Moleküle in dem betrachteten Gasvolumen, der Temperatur des Gases und einer weiteren Konstante k, auf die wir noch zu sprechen kommen. Damit können wir Gleichung (1.3) erweitern zu

  (1.4)

Diese Gleichung wird auch als ideale Gasgleichung bezeichnet. Dabei werden die Teilchen eines idealen Gases als punktförmige, d.h. ausdehnungslose Masseteilchen angenommen, die sich frei im Raum bewegen können und Energie und Impuls nur über elastische Stöße austauschen.

Warum wir diese Gleichung anführen, hat damit zu tun, dass wir für das ΔW in Gleichung (1.1), also für die zu verrichtende Arbeit, einen entsprechenden mathematischen Ausdruck benötigen, den wir anstelle von W setzen können. Denn wenn wir das Volumen unseres Gases in dem Zylinder verkleinern wollen, so müssen wir an dem Kolben Arbeit verrichten, wobei sich der Druck erhöht. Druck mal Volumen ist also eine Arbeit. Und da wir diese Arbeit in das System hineinstecken, muss sie ein negatives Vorzeichen haben. Schreiben wir also Gleichung (1.1) neu an und verwenden anstelle der Wärme Q den gemäß Gleichung (1.2) nach Q umgestellten Ausdruck

  (1.5)

dann transformiert sich (1.1) zu

  (1.6)

Dass nun anstelle des Symbols Δ ein d steht, hat damit zu tun, dass wir uns auf beliebig kleine Veränderungen beschränken wollen, so dass wir die differenzielle Schreibweise mit dem Buchstaben d benutzen können.

Kommen wir nochmals zurück zur Gleichung (1.2). Wenn es sich um einen Kreisprozess handelt, der ohne Verluste abläuft, dann steht, wie schon erwähnt, anstelle des Zeichens ≥ das Gleichheitszeichen. In der Praxis kommen aber solche idealisierten Prozesse nicht vor. Mit dem Ball, den wir haben fallen lassen, klappt es schon deswegen nicht, weil es keine vollkommen elastischen Körper gibt. Noch klarer wird die Sache, wenn wir ein Hühnerei fallen lassen. Zunächst veranstalten wir damit eine ziemliche Sauerei. Betrachtet man den Matsch jedoch genauer, so zeigt sich: Er hat sich etwas erwärmt. Verantwortlich dafür ist die Gravitation, die an dem Ei Arbeit verrichtet hat. Da aber die ursprünglichen Bestandteile des Eies nach wie vor vorhanden sind, könnte man doch – rein theoretisch – die Energie, die in dieser Abwärme steckt, dazu nutzen, das Ei wieder zusammenzusetzen und gegen die Schwerkraft unversehrt zum Ausgangspunkt hochzuheben. Das funktioniert aber nicht, zumindest hat man so etwas noch nie beobachtet. Fazit: Diese Größe S, die Entropie, die spuckt uns, salopp gesagt, in die Suppe. Doch bevor wir uns mit diesem Problem näher befassen, kehren wir kurz zurück zur Gleichung (1.6). Aus Gründen der Vollständigkeit muss neben den Termen –p dV und T dS noch ein dritter Term in Betracht gezogen werden, der ebenfalls zur Gesamtenergie E beiträgt. Es spricht ja nichts dagegen, dem System noch N weitere Teilchen mit anderen (z.B. chemischen) Eigenschaften hinzuzufügen. Damit erweitert sich Gleichung (1.6) zu

  (1.7)

wobei μ, das die Dimension Joule pro Mol hat, für das chemische Potential der jeweiligen Teilchenart steht. Mit anderen Worten: Die Größe μ beschreibt, wie sich die Energie eines Systems ändert, wenn dem System Teilchen hinzugefügt bzw. entnommen werden. Je nachdem, welche Eigenschaften diese Teilchen haben, wirken sie sich auf das System aus. Für die weiteren Betrachtungen ist der Beitrag μ·dN jedoch ohne Belang, wir dürfen ihn daher gleich wieder vergessen.

Fassen wir kurz zusammen. Der Energieerhaltungssatz – Gleichung (1.7) – zählt zu den Grundpfeilern der Thermodynamik, weshalb man ihn auch als Ersten Hauptsatz der Thermodynamik bezeichnet. Er besagt: Soll sich an der Gesamtenergie eines Systems etwas ändern, so muss entweder Arbeit verrichtet, Wärme zu- oder abgeführt, oder es müssen dem System irgendwelche Teilchen hinzugefügt bzw. entnommen werden. Ferner hat sich gezeigt: Die Größe dS, die Änderung der Entropie, wird bestenfalls dann gleich null, wenn man es mit reversiblen Kreisprozessen zu tun hat. Da in der realen Welt derartige Prozesse jedoch nicht vorkommen, gilt dort dS > 0, d.h., in einem abgeschlossenen System nimmt die Entropie ohne äußeres Zutun immer zu. Damit zerplatzte bereits sehr früh ein Traum, der vermutlich sogar älter als die Thermodynamik ist: eine Maschine, die ohne äußeres Zutun ewig Arbeit verrichten könnte. Die Energieerhaltung in Form der Gleichung (1.7) schlägt diesem Wunsch die Türe zu.

In der Thermodynamik kommt der Entropie eine entscheidende Rolle zu. Der Schlüssel zum Verständnis der Thermodynamik liegt in der Deutung dieser Größe, also darin, wie dieser Begriff zu interpretieren ist. Man hat erkannt, dass die Entropie etwas mit der Ordnung in einem System zu tun hat. Anders ausgedrückt: Die Entropie ist ein Maß für die Unordnung in einem System. Machen wir das anhand eines geordneten Papierstapels mit 100 durchnummerierten Blättern deutlich. Schusselig wie Physiker sind, fällt uns der Stapel aus der Hand, und als wir ihn wieder aufheben, stellen wir fest, dass sich vier Blätter nicht mehr an den richtigen Stellen befinden. Da wir nicht nur schusselig, sondern auch zu faul sind, die Blätter neu zu ordnen, kommen wir auf die Idee, den Stapel erneut zu Boden fallen zu lassen, in der Hoffnung, dass sich die Fehler wieder korrigieren. Leider zeigt sich, dass nun nicht nur vier, sondern viel mehr Blätter »verrutscht« sind. Ein weiterer Fallversuch ergibt sogar ein noch größeres Durcheinander. Doch warum ist das so? Woher kommt das? Gibt es etwa ein Gesetz, wonach zu Boden fallende Papierstapel in Unordnung geraten müssen? Wieso nimmt die Unordnung zu? Grundsätzlich wäre es doch möglich, dass sich die Ordnung des Stapels beim Hinunterfallen wieder verbessert. Physikalisch spricht da nichts dagegen. Denn jeder »Fallversuch« hat zum Ergebnis, dass sich eine der vielen möglichen Anordnungen der Blätter einstellt. Und damit sind wir schon bei der Lösung des Problems: Es gibt viel mehr Anordnungen, die ein höheres Maß an Unordnung aufweisen, als die wenigen, nahezu geordneten Zustände. Die Wahrscheinlichkeit, dass die Unordnung beim Herunterfallen zunimmt, ist somit viel größer als die, dass sie abnimmt.

Für das Ergebnis des Fallversuchs spielt natürlich auch die Größe der Grundgesamtheit eine Rolle. Aus ihr ergibt sich das sogenannte Ensemble – in unserem Beispiel sind es sämtliche Blätter des Papierstapels. Besteht der Stapel beispielsweise nur aus zwei Blättern, so ist die Wahrscheinlichkeit 50 Prozent, dass die Blätter nach dem Herunterfallen in der richtigen Reihenfolge zu liegen kommen. Andererseits steigt die Wahrscheinlichkeit, dass das Experiment einen geordneteren Zustand als den Ausgangszustand liefert, wenn man den Fallversuch mit einem Stapel ausführt, in dem die Unordnung schon sehr nahe an die maximale Unordnung – das sogenannte Gleichgewicht – heranreicht. In der Praxis spielt das jedoch kaum eine Rolle, denn da hat man es mit unglaublich vielen Ensemblemitgliedern zu tun, wodurch sich die Unordnung des Ausgangszustands spielend weiter verschlimmern lässt – wir sind also stets weit von einer Gleichverteilung entfernt.

Betrachten wir dazu die Luftmoleküle in einem Zimmer. Grob abgeschätzt schwirren da pro Kubikmeter rund 1025 Teilchen herum. Es gibt also sehr viele Möglichkeiten, wie sich die Luftmoleküle im Raum verteilen können. Was also sehen wir als geordnet und was als ungeordnet an? Geht man von einem Zustand aus, in dem alle Teilchen in einer Ecke des Zimmers versammelt sind, ist das sicher ein relativ geordneter Zustand. Mit der Zeit werden sich die Moleküle jedoch mehr oder weniger gleichmäßig im gesamten Raum verteilen. Das aber bedeutet, dass der Zustand, in dem alle Teilchen homogen im Zimmer verteilt sind, der Zustand der größten Unordnung wäre bzw. der Zustand maximaler Entropie. Mit derartigen Überlegungen haben wir schon mal einen ersten Schritt zum Verständnis der Entropie getan.

1.3Statistische Thermodynamik – Mikrozustände

1.8 Ludwig Boltzmann (1844–1906)

Den nächsten Schritt zu einer statistischen Deutung der Entropie verdankt die Thermodynamik dem österreichischen Physiker Ludwig Boltzmann. Boltzmann hatte sich überlegt, wie man das Maß der Unordnung, also die Entropie einer Konfiguration von Teilchen, konkret berechnen könnte. Doch bevor wir mit Herrn Boltzmann weitermachen, müssen wir erst einmal zwei Begriffe einführen: den Mikro- und den Makrozustand. Im Prinzip ist ein Mikrozustand nichts anderes als eine vollständige mikroskopische Beschreibung eines thermodynamischen Systems. Etwas präziser versteht man darunter eine genau definierte Konstellation bestimmter Werte, welche die Eigenschaften der Teilchen eines Ensembles beschreiben, beispielsweise deren Ortskoordinaten und Impulse. Die Ortskoordinaten bilden dabei – wie üblich – einen dreidimensionalen Raum. Trägt man die zusätzlichen Eigenschaften jedes Teilchens ebenfalls in Form weiterer Koordinatenachsen ein, so erhält man einen höherdimensionalen Raum, den man Phasenraum nennt. In unserem obigen Beispiel wäre der Phasenraum also sechsdimensional: drei Koordinaten x, y und z für den Ort und weitere drei Koordinaten px, py und pz für die jeweiligen Impulsanteile jedes Teilchens. Wir kommen darauf später nochmals zurück.

In der Regel, insbesondere bei einer hohen Teilchenzahl, haben wir über die Mikroverteilung der Teilchen, also über den Mikrozustand, keine Kenntnis – die Eigenschaften von 1025 Teilchen lassen sich in der Praxis schlichtweg nicht vermessen. Ganz anders beim Makrozustand, der sich als Resultat des Mikrozustandes einstellt. Er lässt sich durch makroskopisch messbare Größen wie Druck, Volumen, Temperatur etc. beschreiben. Fast immer ist ein Makrozustand nicht das Ergebnis nur eines einzigen bestimmten Mikrozustandes, vielmehr können mehrere unterschiedliche Mikrozustände zu ein und demselben Makrozustand führen. Andererseits besitzt nicht jeder Makrozustand gleich viele unterschiedliche Mikrozustände. Einige lassen sich auf wenige Mikrozustände zurückführen, für andere benötigen wir mehr. So kann z.B. der Makrozustand, der einer Zusammenballung aller Luftmoleküle in einer Ecke des Raumes entspricht, nur mit wenigen unterschiedlichen Konstellationen von Mikrozuständen erzeugt werden – im Extremfall nur von einer. Ganz anders sieht es aus mit der Gleichverteilung im Raum – hier sind wesentlich mehr unterschiedliche Konstellationen möglich.

Doch jetzt zurück zu Herrn Boltzmann. Wir wissen es nicht genau, aber vermutlich hat auch er derartige Überlegungen angestellt, um die Entropie quantitativ zu packen. Tatsächlich konnte er zeigen, dass die Größe der Entropie bestimmt wird durch die Anzahl der Mikrozustände, die einen identischen Makrozustand bilden. Seine Entropie-Gleichung lautet:

  (1.8)

wobei k = 1,38064852·10–23[m2 kg/(s2K)] für die sogenannte Boltzmann-Konstante steht und Ω alle möglichen unterscheidbaren Mikrozustände eines bestimmten Makrozustandes umfasst. Es kommt also darauf an, die Anzahl der möglichen mikroskopischen Teilchenarrangements zu bestimmen, die, jedes für sich, zu dem einen identischen Makroergebnis führt. Betrachten wir dazu die Abb. 1.9. Da haben wir es mit mehreren Kästchen zu tun, in denen jeweils vier Teilchen auf insgesamt acht Plätze verteilt sind. Jeder Kasten soll einem Mikrozustand entsprechen. Jetzt erlauben wir den Teilchen, sich horizontal nach links oder rechts auf einen anderen Platz zu verschieben, und fragen, wie viele unterschiedliche Möglichkeiten es auf diese Weise gibt, die Teilchen zu arrangieren.

1.9 Anzahl der unterschiedlichen Teilchenarrangements unter der Prämisse, dass die Teilchen nur horizontal verschoben werden dürfen. Dass sich beispielsweise alle Teilchen auf der linken Seite befinden, tritt nur in einer Konstellation auf, es gilt Ω = 1. Die häufigste Konstellation – zwei Teilchen links und zwei rechts – tritt in sechs unterscheidbaren Möglichkeiten auf, d.h. Ω = 6.

Wie die unterste Zeile zeigt, gibt es nur je eine Möglichkeit, bei der alle Teilchen entweder ganz nach links oder ganz nach rechts gerückt sind. Stellt man sich dann die Frage: Wie viele Möglichkeiten gibt es, nur drei Teilchen auf einer Seite zu platzieren, oder für eine Gleichverteilung, bei der links und rechts genau zwei Teilchen zu liegen kommen (mittlere Spalte), dann hilft uns die Statistik. Es gibt offensichtlich viel mehr Möglichkeiten, die Moleküle im Raum mehr oder weniger gleich zu verteilen, als sie alle an einem bestimmten Ort zu versammeln. Sind nun alle Mikrozustände gleich wahrscheinlich, so werden wir bei einer Messung das System in der Regel in einem Makrozustand antreffen, der durch sehr viele Mikrozustände realisiert werden kann. Folglich ist der wahrscheinlichste, sich bei einer Messung ergebende Makrozustand derjenige, der am meisten Mikrozustände aufzuweisen hat.

Um das zu verstehen, bedurfte es einer Hypothese, die Boltzmann in die Thermodynamik eingeführt hat, die sogenannte Ergodenhypothese. Obwohl man diese Hypothese zunächst nicht verstand und auch nicht beweisen konnte, führte sie letztlich doch zum Erfolg. Die Ergodenhypothese besagt, dass bei gegebener Energie E alle Mikrozustände, die mit der Gesamtenergie des Systems verträglich sind und einen identischen Makrozustand abbilden, im Laufe der Zeit mit gleicher Wahrscheinlichkeit eingenommen werden. Fällt Ihnen da was auf, beim Lesen dieses Satzes? Für alle, die das Buch Können wir die Welt verstehen aufmerksam gelesen haben oder anderweitig mit relativistischer Quantenfeldtheorie vertraut sind, würden wir gern einen kurzen Gedanken anfügen: Erinnern Sie sich an die Quantenelektrodynamik? Alle möglichen Wege, die das Licht nehmen kann, sind gleich wahrscheinlich, hieß es dort. Wie es scheint, gilt Ähnliches auch in der Thermodynamik. Wir werden noch auf diese spannende Parallele zurückkommen.

Auf eine wichtige Besonderheit im Zusammenhang mit der Anzahl unterschiedlicher Mikrozustände müssen wir noch kurz eingehen. Bislang haben wir der Einfachheit halber nur Bestandteile angeordnet, die prinzipiell nicht voneinander unterscheidbar sind. Würden wir beispielsweise in Abb. 1.9 eine der roten Kugeln durch eine orange ersetzen und den Teilchen mehr Freiheiten einräumen, so dass sie ihre Position tauschen dürfen, ergäbe sich ein völlig anderes Bild. Allein der Zustand links unten, bei dem sich alle Kugeln links befinden, müsste durch vier nun unterscheidbare Konstellationen ersetzt werden, wobei sich die orange jeweils in einer anderen Höhe befinden würde. Diese Zustände wären klar voneinander unterscheidbar und trügen somit alle zu den insgesamt möglichen unterschiedlichen Konstellationen bei. Das betrifft alle Zustände in Abb. 1.9 gleichermaßen. Unsere Argumentation würde jedoch insgesamt keinen Schaden erleiden, weil sich wiederum der Gleichgewichtszustand mit den meisten Zuständen darstellen ließe.

Wenden wir uns noch dem Begriff der Arbeit zu, die man aus einem thermodynamischen System gewinnen kann. Angenommen, jedes Teilchen des Ensembles trägt eine bestimmte mittlere Energie. Für die Arbeit, die das System verrichten kann, ist nicht der absolute Wert dieser Energie entscheidend. Entscheidend ist vielmehr, wie gleichmäßig die energietragenden Teilchen im Raum verteilt sind bzw. wie gleichmäßig die Energie verteilt ist. Hat sich bereits eine komplett gleichmäßige Verteilung eingestellt, so befindet sich das System im sogenannten thermodynamischen Gleichgewicht. In diesem Zustand ist die Entropie des Systems maximal. Ist dagegen noch keine Gleichverteilung erreicht, sind also, um in unserem Beispiel mit den verschiedenen Kästen der Abb. 1.9 zu bleiben, die Teilchen in einem Kasten z.B. alle auf eine Seite gerückt, so besteht immer noch die Möglichkeit, Arbeit aus dem System zu gewinnen bzw. die Entropie zu erhöhen und sich dabei dem Gleichgewicht anzunähern, indem auch in diesem Kasten die Teilchen gleichmäßiger verteilt werden. Also nicht der Absolutbetrag der Energie ist entscheidend, sondern der Umstand, wie gleichmäßig die Energie verteilt ist bzw. wie nahe die Verteilung bereits dem thermodynamischen Gleichgewicht ist. Ist das System im thermodynamischen Gleichgewicht, gilt »rien ne va plus« – dann geht nichts mehr. Das System kann keine äußere Arbeit mehr verrichten. Das System legt gleichsam die Beine auf den Tisch. Zu Ende gedacht hat das zur Formulierung des sogenannten Zweiten Hauptsatzes der Thermodynamik geführt, wonach, entsprechend Gleichung (1.2), für irreversible Prozesse gilt:

  (1.9)

Wärme kann demnach nie von einem Bereich niedriger Temperatur in einen Bereich höherer Temperatur fließen, was anders formuliert bedeutet, dass es unmöglich ist, eine Maschine zu bauen, ein sogenanntes Perpetuum mobile zweiter Art, die Arbeit verrichtet, indem sie ausschließlich aus einem Temperaturreservoir Wärme entnimmt und in einen gleichen Betrag an Arbeit umwandelt. Denn dabei entsteht, meist durch Reibung, immer sogenannte Abwärme, die nicht an das Reservoir abfließen kann. Ein Betrieb wäre nur möglich, wenn die Abwärme an ein Reservoir mit niedrigerer Temperatur abfließen könnte. So ist es beispielsweise leider nicht möglich, die Temperatur des Meeres zum alleinigen Antrieb einer Maschine heranzuziehen. Das ist insofern schade, da das Meer eigentlich ein riesiges Energiereservoir darstellt.

Für viele Formulierungen in der Wärmelehre, wonach ein Prozess definitiv so oder so verläuft und nie in dieser oder jener Form, möchten wir noch einen Disclaimer, einen Haftungsausschluss, angeben dergestalt, dass wir nicht verantwortlich zu machen sind, wenn es doch mal anders kommt als behauptet, denn über den statistischen Betrachtungen von Vielteilchensystemen schwebt stets das Damoklesschwert der beliebig seltenen Ereignisse. Bricht man den Wärmeübertrag beispielsweise herunter auf den Stoß eines langsamen Teilchens mit einem schnelleren, so ist es gemäß der klassischen Mechanik durchaus möglich, den Stoß so geschickt auszuführen, dass das schnellere Teilchen weiter beschleunigt wird auf Kosten der kinetischen Energie des langsamen. Ein Wärmeübertrag von kalt zu warm wäre demnach grundsätzlich möglich, aber mit steigender Teilchenzahl beliebig unwahrscheinlich. In der Praxis spielt das keine Rolle, zu viele Moleküle sind in realen Prozessen involviert, der guten Ordnung halber sei es dennoch angemerkt.

Lassen Sie es uns nochmals betonen: Über das Ausmaß an Arbeit, das man mit einem makroskopischen Zustand verrichten kann, entscheiden die zu dem Makrozustand gehörigen Mikrozustände, also die mikroskopische Anordnung aller beteiligten, zum System gehörenden Teilchen im Raum. Mit Abb. 1.9 haben wir ein sehr einfaches Beispiel für unterschiedliche Anordnungen kennengelernt. Wo wir idealisiert nur Verschiebungen nach links und rechts zugelassen haben, hat man es in der Realität mit Translationen in alle drei Raumrichtungen zu tun. Hinzu kommt, dass jedes Teilchen auch eine gewisse Geschwindigkeit hat bzw. einen gewissen Impuls besitzt, der wiederum in die drei Richtungen des Raumes weist. Doch damit nicht genug: Die Anzahl der möglichen Mikrozustände lässt sich noch erweitern, wenn man z.B. den Teilchen einen Spin zugesteht. Anstelle von nur links oder rechts hat man es in der realen Welt mit einem ganzen Satz an Koordinaten und Zuständen zu tun, die einen virtuellen Raum, den weiter oben schon mal erwähnten Phasenraum, aufspannen. In diesem Phasenraum sind also alle möglichen Zustände, welche die Mikrozustände definieren, mit ihren Orts- und Impulskoordinaten sowie den erwähnten Parametern abgebildet. Den Bereich des Phasenraumes, der von den Mikrozuständen eines gegebenen Makrozustandes tatsächlich belegt wird, bezeichnet man übrigens als Phasenraumvolumen. Aber das nur nebenbei.

Dass die bisherigen Betrachtungen schwierig und reichlich abstrakt erscheinen, liegt vor allem daran, dass wir es zumeist mit einer enormen Menge an Teilchen zu tun haben. Bereits 1893 hatte der deutsch-baltische Chemiker Wilhelm Ostwald (1853–1932) die Einheit Mol eingeführt – vermutlich inspiriert vom lateinischen Wort moles für Masse –, um Stoffmengen leichter handhaben zu können. In einem Mol sind jeweils rund 6 mal 1023 Teilchen enthalten. Unter Normalbedingungen von Druck und Temperatur nimmt ein Mol eines Gases ein Volumen von rund 22,4 Litern ein. Um zu ermitteln, wie sich diese Teilchenmenge in ihrer Gesamtheit verhält, könnten wir naiverweise das Lösungsschema der klassischen Mechanik anwenden: den Lagrange-Formalismus. In der klassischen Physik lässt sich damit anhand einer einzigen Funktion, der sogenannten Lagrange-Funktion L = Ekin – Epot die Dynamik eines Systems berechnen. Ekin steht dabei für die kinetische und Epot für die potentielle Energie. Dummerweise müssten wir für stolze 1023 Teilchen jeweils die Lagrange-Funktion aufstellen und damit die Wirkung berechnen – ein schier hoffnungsloses Unterfangen. Deshalb hat man in der Thermodynamik einen Begriff eingeführt, der die Bewegungen des Teilchenensembles besser beschreibt. Die Teilchen bewegen sich ja nicht gerichtet im Raum, vielmehr handelt es sich hinsichtlich Richtung und Geschwindigkeit der Teilchen um zufällige, statistische Bewegungen. Im Ganzen betrachtet »wuseln« die Teilchen also wie wild durcheinander. Um dieses Gewimmel thermodynamisch zu »packen«, ist es daher sinnvoll, über die Bewegungen bzw. die einzelnen Teilchenenergien zu mitteln. In der Thermodynamik verwendet man für dieses Mittel einen linearen Maßstab, den man als Temperatur des Teilchenensembles bezeichnet.

Wer hier übrigens die Nase rümpft, weil wir angesichts des unüberwindlich erscheinenden Komplexitätsgrades der Lagrange-Funktion die Waffen gestreckt und uns in schwammigere, gemittelte Größen geflüchtet haben, der sei daran erinnert, dass auch in der klassischen Mechanik nur ausgezeichnete Problemstellungen exakt analytisch berechnet werden können – ganz zu schweigen vom Versuch, die Schrödinger-Gleichung für mehrere Teilchen zu lösen oder andere nichtlineare Aufgabenstellungen bis hin zur Plasmaphysik. Allen gemein ist der enorme Komplexitätsgrad im Kleinsten, wobei gleichzeitig auf makroskopischer Ebene durchaus wohldefinierte Größen gemessen werden. Die Thermodynamik unterscheidet sich hier nicht wesentlich. Im Limes großer Teilchenzahlen ergeben sich belastbare statistische Gesetzmäßigkeiten.

Die unterschiedlichen Disziplinen scheinen sich in dieser Frage greifbar nahe zu sein. Für mich persönlich liegt darin ein tiefes Faszinosum der Wissenschaft, das weit über das bereits erwähnte »Die Natur kennt keine Fakultäten« hinausgeht. Deshalb gestaltet sich der statistische Zugang zur Thermodynamik vermutlich für alle, die mit dem Weltbild der relativistischen Quantenfeldtheorie vertraut sind, besonders einfach und anschaulich. Alle anderen müssen sich aber nicht grämen – man kann die Ergodenhypothese auch einfach als gegeben hinnehmen –, Boltzmann hatte sie ja auch ohne Kenntnis der relativistischen Quantenfeldtheorie eingeführt.

Verblüffend ist es aber schon, die geistige Nähe zweier so weit voneinander getrennten Theorien hautnah zu erspüren. Boltzmann musste sicherstellen, dass alle zu einem Makrozustand gehörenden Mikrozustände mit gleicher Wahrscheinlichkeit eingenommen werden. In der Welt der relativistischen Quantenfeldtheorien setzt sich jedes Phänomen aus beliebig vielen Möglichkeiten zusammen, die alle mit einer Wahrscheinlichkeitsamplitude beaufschlagt werden. Jede Möglichkeit hat ihre Berechtigung – die Ergodenhypothese ist integrales Selbstverständnis der Quantenfeldtheorien. Ja noch mehr: In den relativistischen Quantenfeldtheorien sind wir es sogar gewohnt, weder einschränkende Randbedingungen noch Systemgrenzen, d.h. Leitplanken für unser Weltbild, zuzulassen. Allerdings haben wir uns dabei manchmal Unendlichkeiten eingehandelt, die wir mühevoll wieder beseitigen mussten. Doch nun kommen uns Leitplanken, wie z.B. ein endliches Volumen, das den Teilchen zur Verfügung steht, gerade recht. Es ist allemal einfacher, sich mit einem System zu beschäftigen, dessen Teilchen sich nicht im ganzen Universum ausbreiten, sondern in einem »geschützten« Bereich, wie z.B. in einem Zylinder mit einem beweglichen Kolben. Da herrschen klare Randbedingungen.

Betrachten wir jetzt den roten Term in Gleichung (1.7):

  (1.7)

Wir wissen: Der Druck ist eine Energiedichte, gemäß

Dabei ist F die Kraft in Newton, und x steht für den Weg in Metern. Damit entspricht der rote Term in (1.7) einer Energie, denn Energiedichte mal Volumen ist gleich Energie. Ferner sagt uns die ideale Gasgleichung p·v = N·k·T, dass diese Energie bestimmt wird durch die Anzahl N der Teilchen im System und das lineare Maß T, die weiter oben eingeführte mittlere Temperatur der Teilchen im System. Also beschreibt der rote Term in (1.7) nichts anderes als die mittlere Energie des Teilchenensembles. So einfach ist das! Eine mittlere Temperatur mal der Gesamtzahl der Teilchen mal der Boltzmann-Konstante ergibt die Gesamtenergie. Wenn wir also an der Energie dE in (1.7) etwas ändern wollen, dann müssen wir vornehmlich am Volumen V drehen.

Der blaue Term dQ = TdS in (1.7) ist die im System gespeicherte Wärme, also ebenfalls eine Energie. Außer von der mittleren Temperatur T wird diese Energie bestimmt von der Entropie S im System. Wobei S entsprechend S = k·lnΩ (1.8) wiederum abhängt von der Größe Ω, der Anzahl der unterschiedlichen Mikrozustände, bzw. der Menge der möglichen unterschiedlichen Verteilungen der Teilchen im Phasenraum. Dass Ω von der Anzahl der im System vorhandenen Teilchen abhängt, ist auch klar, denn je mehr Teilchen das System hat, umso mehr Möglichkeiten gibt es, die Teilchen im Phasenraum unterschiedlich anzuordnen. Dass auch der grüne Term in (1.7) eine Form der Energie darstellt, ist trivial.

Vielleicht noch eine kurze Bemerkung am Rande: In unseren quantenfeldtheoretischen Betrachtungen hatten wir es häufig mit einem Term ex zu tun, wobei es sich bei der Größe x um irgendeinen Ausdruck gehandelt hatte. Das war z.B. der Fall bei der zeitabhängigen Schrödinger-Gleichung oder der Berechnung des Pfadintegrals in der Quantenelektrodynamik. Wenn das Universum tatsächlich keine Fakultäten kennt, begegnet uns dann ein ähnlicher Term auch bei der Gesamtbetrachtung der Thermodynamik? Ja! Dazu muss man sich nur Gleichung (1.8) ansehen. Denn (1.8) nach Ω aufgelöst hat zum Ergebnis: Ω = eS/k.

Insgesamt zeigt sich, dass eine quantenfeldtheoretische Betrachtungsweise natürlicherweise an die statistischen Deutungen der Thermodynamik anknüpft. Alle bei gegebener Energie möglichen Mikrozustände werden berücksichtigt und als gleich wahrscheinlich angenommen.

Versuchen wir das an einem einfachen Beispiel zu zeigen. Zieht man ein Gummiband in die Länge, so erwärmt es sich etwas. Lässt man es wieder auf die ursprüngliche Länge zurückschnurren, wird es wieder kälter. Das bedeutet: Die am Gummiband verrichtete Arbeit und die dadurch erzeugte Wärme stehen zueinander in einem gewissen Verhältnis. Dürfen wir den Gedanken auch umkehren? Kann man durch Zufuhr von Wärme auch Arbeit verrichten? Ja, das klappt. Hängt man beispielsweise ein Gewicht an ein Gummiband, dann wird das Gewicht nach oben gezogen, wenn man das Gummiband erwärmt. Durch Zufuhr von Wärme lässt sich also Arbeit verrichten. Das erscheint zunächst etwas widersprüchlich, denn man erwartet doch, dass sich ein Körper ausdehnt, wenn man ihn erwärmt. Warum gilt das nicht für ein Gummiband? Mit einem simplen thermodynamischen Ansatz lässt sich dieser Widerspruch jedoch auflösen. Betrachten wir dazu die Mikrozustände unseres Gummibandes. Obwohl die real sehr komplex sind – die Moleküle können z.B. miteinander verknotet oder eher gestreckt angeordnet sein, je nachdem, welchen Zustand man durch ein Ziehen am Gummiband erzwingt –, wollen wir nur zwei Konfigurationen zulassen: eine senkrechte und eine horizontale Ausrichtung der Moleküle. Ordnen wir also mal gleich viele Moleküle senkrechter und waagrechter Ausrichtung entsprechend folgender Grafik an:

1 2 3 4 5 6 7 8

1.10 Eine mögliche Molekülanordnung des Grundzustandes, der die meisten Permutationsmöglichkeiten (voneinander unterscheidbare Darstellungen mit vier waagrechten und vier senkrechten Molekülen) aufweist.

Diese Anordnung ist eine von insgesamt 70 möglichen Gleichverteilungen, die man unter Einhaltung unserer Regel erreichen kann. Die anderen 69 Mikrozustände lassen sich durch Permutation konstruieren, indem je ein Molekül mit senkrechter Ausrichtung in die Waagrechte umklappt und gleichzeitig eines mit waagrechter Ausrichtung in die Senkrechte, also z.B. das Molekül 1 in die Waagrechte und das Molekül 6 in die Senkrechte. Und da jede dieser Konfigurationen die bestmögliche Gleichverteilung, d.h. den sogenannten Gleichgewichtszustand, darstellt, ist auch die Entropie jeweils maximal. Diesen Zustand, den wir auch als den Ruhezustand des Systems bezeichnen wollen, strebt jedes abgeschlossene System an.

Ziehen wir nun das Gummiband etwas weiter auseinander. Damit erzwingen wir eine neue Anordnung der Moleküle, z.B. eine, die wie folgt aussieht:

1.11 Molekülanordnung nach einer mäßigen Streckung des Gummibandes

Jetzt haben wir nur noch drei Moleküle mit senkrechter Ausrichtung. Das bedeutet: Wir haben deutlich weniger mögliche Mikrozustände, denn jetzt gibt es nur noch 56 Permutationsmöglichkeiten, je ein senkrechtes und zugleich ein waagrechtes Molekül in die andere Richtung umzuklappen – die Permutationsmöglichkeiten sind also deutlich reduziert. Um zu diesem Zustand zu gelangen, mussten wir Arbeit verrichten. Treiben wir dieses Spiel weiter und ziehen noch kräftiger an dem Gummiband, dehnen also das Band noch mehr, so landen wir letztlich bei einem Zustand, in dem alle Moleküle horizontal ausgerichtet sind:

1.12 Molekülausrichtung bei maximaler Streckung des Gummibandes

Da wir die Moleküle als ortsfest voraussetzen bzw. sie ohnehin untereinander nicht unterscheidbar sein sollen, bildet dieser Zustand die einzig mögliche Anordnung. Die Entropie ist minimal. Reduziert man den »Zug« am Gummiband, so trachtet das System danach, wieder in den Grundzustand, den Zustand maximaler Entropie, zurückzukehren. Das heißt, das Gummiband will sich wieder auf die anfängliche Länge zusammenziehen. Fragt sich: Wie genau schafft das Gummiband das? Hier kommt die thermische Bewegung der Moleküle zu Hilfe. Die schwingen fortwährend hin und her, stoßen sich gegenseitig an und ändern dabei ihre Ausrichtung, so dass die Ausgangskonfiguration, der Ruhezustand, schnell wieder erreicht wird. Je höher die Temperatur des Systems, desto heftiger sind auch die thermischen Bewegungen der Moleküle und desto leichter ist es für das System, in den Grundzustand zurückzukehren. Erhöht man also die Temperatur des Systems Gummiband, dann verstärkt sich die thermische Bewegung der Moleküle mit dem Ergebnis, dass sich das Gummiband zusammenzieht und das daran hängende Gewicht anhebt.

Das, was wir anhand dieses einfachen Beispiels zu erklären versucht haben, gilt nicht nur für die Ausrichtung der Moleküle unseres Gummibandes, sondern auch für jede beliebige Anzahl von Teilchen mit allen erdenklichen Freiheitsgraden bezüglich Ort, Impuls oder was auch immer. Je mehr unterschiedliche Mikrozustände möglich sind, umso näher ist dieser Makrozustand dem Gleichgewichtszustand, d.h. der maximalen Entropie.

Man kann die Änderung der Anzahl der möglichen Mikrozustände auch anderweitig nutzen, z.B. um einen Körper abzukühlen. Klassischerweise bringt man dazu den Körper in Kontakt mit einem deutlich kälteren. Dann fließt Wärme vom wärmeren zum kälteren Objekt, und zwar so lange, bis beide die gleiche Temperatur aufweisen. Am weitesten runter – bis etwa 4 Kelvin – kommt man bei diesem Spiel mit flüssigem Helium als kaltem »Körper«. Aber dann ist Schluss, weiter geht es nicht. Will man eine noch niedrigere Temperatur erreichen, so muss man an die Mikrozustände ran. Dazu bringt man den zu kühlenden Körper zunächst in ein Magnetfeld, so dass sich die magnetischen Dipole, die Spins der Teilchen, parallel zu den Magnetfeldlinien ausrichten. Damit erzwingt man einen geordneten Zustand der Spins, einen Zustand niedrigerer Entropie. Bildlich entspricht das der in Abb. 1.12 dargestellten Konfiguration. Mithin haben wir jetzt einen bereits sehr kühlen Körper und einen Freiheitsgrad bezüglich der magnetischen Ausrichtung der Spins, an dem wir drehen können. Alsdann kühlt man den Körper mit dem soeben beschriebenen Verfahren so weit wie möglich herunter – und schaltet anschließend das Magnetfeld ab. Befreit vom »Zwang« des Magnetfeldes, werden sich nun die Spins zufällig in alle möglichen Richtungen ausrichten. Der entfesselte Freiheitsgrad erlaubt mehr mögliche Mikrozustände. Mit anderen Worten: Die Energie verteilt sich auf viel mehr Zustände als während der Magnetisierung – die Entropie des Systems nimmt zu. Mit dieser Methode, der sogenannten adiabatischen Entmagnetisierung, sind Temperaturen hinunter bis zu einigen Millikelvin erreichbar. Der absolute Nullpunkt bleibt jedoch versperrt. Für jede weitere Annäherung an den absoluten Nullpunkt bedarf es einer höheren Zahl an Einzelschritten, da die Entropiedifferenz mit jedem Schritt stetig abnimmt. Der Grenzwert ist mit endlichen Schritten nicht erreichbar. Der Chemiker Walther Nernst (1864–1941) hatte das zusammen mit Max Planck zum sogenannten Dritten Hauptsatz der Thermodynamik formuliert.

1.13 Walther Nernst (1864–1941)

1.4Boltzmann-Faktor

Betrachten wir jetzt einen kleinen Abschnitt einer Luftsäule. Das Luftsäulenstück soll die Höhe dh und das Volumen V besitzen. Ferner soll die Temperatur unterhalb und oberhalb des Volumens V gleich und konstant sein.

1.14 Volumenelement V einer Luftsäule. Auf die rote Fläche wirkt die zusätzliche Kraft (m mal g) mit m gleich der Masse der Luftmoleküle im Volumen V und g gleich der Erdbeschleunigung.

Auf dieses Stück wenden wir nun die ideale Gasgleichung (1.4) an und schreiben:

  (1.4)

Um nicht immer dieses Volumen V mitschleifen zu müssen, ist es gebräuchlich, das V unter die Anzahl N der Teilchen zu ziehen und den neuen Ausdruck N/V, also die Anzahl der Teilchen pro Volumen, mit einem kleinen n zu bezeichnen. Damit nimmt (1.4) folgende Form an:

  (1.10)

Stellen wir uns jetzt die Frage: Wie ist der Druck an der unteren Grenze des Volumens V im Verhältnis zum Druck an der oberen Grenze? Offensichtlich ist der Druck unten ein wenig höher, und zwar um den Betrag, den die im Gravitationsfeld der Erde nach unten gezogenen Luftmoleküle auf die untere Grenzfläche des Volumens V ausüben. Die Kraft, mit der die Teilchen nach unten drücken, ist gleich der Masse m eines Teilchens multipliziert mit der Anzahl N der Teilchen im Volumen V und der Erdbeschleunigung g. Damit erhalten wir für die Druckdifferenz dp zwischen der Luftsäule oberhalb und der unterhalb des Volumens V den Ausdruck

  (1.11)

n entspricht der Anzahl der Teilchen im Volumen – deshalb multiplizieren wir mit der Höhe dh des Volumens V, um eine Kraft pro Fläche zu erhalten, wie sich das für einen Druck gehört. Nun setzen wir auch in (1.10) anstelle von p den differentiellen Druck dp ein und erhalten

  (1.12)

Eingesetzt in (1.11) folgt

  (1.13)

Schaffen wir alle Terme mit n nach links, so können wir beide Seiten integrieren:

  (1.14)

Die linke Seite liefert den natürlichen Logarithmus von n, und wir erhalten

  (1.15)

Delogarithmieren wir, d.h. stellen wir beide Seiten von (1.15) in den Exponenten von e und berücksichtigen, dass eln n gleich n ist, so führt das schließlich zu

  (1.16)

Im Prinzip haben wir damit die barometrische Höhenformel

  (1.17)

hergeleitet. Dabei steht die Größe n0 für die Anzahl der Luftmoleküle auf Meereshöhe. Formel (1.17) besagt, dass im Gravitationsfeld die Anzahl der Teilchen in einer Luftsäule exponentiell mit der Höhe abnimmt.

Schauen wir uns den Exponenten von e auf der rechten Seite der Gleichung genauer an. Der Ausdruck (m mal g mal h) entspricht einer Energie. Diesen Ausdruck haben wir erhalten, weil wir die Gravitation ins Spiel gebracht haben. Wir hätten das aber auch anders machen können, z.B. indem wir geladene Teilchen einem elektrischen Feld aussetzen, das sie nach unten zieht. Welches Potential auch immer wir anstelle des Gravitationspotentials einsetzen, das den Teilchen das Aufsteigen in Regionen höherer Energie erschwert, die Verteilung der Teilchen wird von dieser Energiedifferenz bestimmt werden in der Form

  (1.18)

Diese Exponentialfunktion ist von solch fundamentaler Bedeutung, dass man ihr einen eigenen Namen zugewiesen hat: Boltzmann-Faktor. Dieser Faktor wird uns noch von großem Nutzen sein.

Kehren wir mit dieser Erkenntnis im Hinterkopf zurück zum Grundzustand eines Systems und seinen Mikrozuständen. Wir haben gesehen: Im Grundzustand ist die Anzahl der Mikrozustände am größten. Und da alle Mikrozustände mit gleicher Wahrscheinlichkeit auftreten, verteilt sich auch die Energie gleichmäßig auf alle Zustände. Auf jeden einzelnen Mikrozustand entfällt somit relativ wenig Energie. Verrichten wir jedoch Arbeit am Gummiband, indem wir es in die Länge ziehen, dann verringert sich, wie wir weiter oben gesehen haben, die Anzahl der Mikrozustände. Nun entfällt auf jeden Mikrozustand eine höhere Energie als im Grundzustand. Diese Energiedifferenz muss man sich allerdings durch den Boltzmann-Faktor erkaufen.

Stellen wir uns abschließend die Frage: Was bringt diese Sichtweise für unser Weltbild? Zunächst haben wir festgestellt, dass nicht der absolute Energiebetrag entscheidend ist, sondern die Verteilung der Energie auf die Anzahl der Mikrozustände. Das Universum verteilt die zur Verfügung stehende Energie gleichmäßig auf alle Mikrozustände. In einem äußeren Potential, beispielsweise dem Gravitationsfeld unseres Planeten, nimmt das System nicht den energetisch niedrigsten Zustand ein, wie man naiverweise vermuten könnte. Die Luftmoleküle liegen nicht alle am Boden bzw. auf Meereshöhe. Wäre dem so, dann hätten die Menschen wohl nicht zu einem aufrechten Gang gefunden, weil sie den Sauerstoffmolekülen am Boden nachschnüffeln müssten. Vielmehr besteht in einem Potential, d.h. unter Anwesenheit einer äußeren Kraft, sozusagen ein Interessenskonflikt zwischen dem Wunsch, die Anzahl der Mikrozustände möglichst weit zu erhöhen, ohne gleichzeitig das Energiebudget für zusätzliche höherliegende Niveaus zu sprengen. Die Temperatur wirkt stets als hilfreicher Verbündeter der Entropie. Bei einem äußeren Potential hilft sie, energetisch höhere Zustände zu bevölkern. In Konstellationen ohne Potential fördert sie ein Zurückstellen in den Grundzustand, indem sie die thermische Bewegung der Moleküle verstärkt. Je häufiger die Moleküle miteinander kollidieren, umso gleichmäßiger verteilt sich die Energie auf alle. Im Gleichgewicht, im Zustand maximaler Entropie, hat das System gegenüber allen anderen möglichen Zuständen die meisten Mikrozustände. Das wiederum bedeutet: Die zur Verfügung stehende Energie verteilt sich auf die maximale Anzahl von Mikrozuständen, wodurch im Mittel auf jeden Mikrozustand am wenigsten Energie entfällt. Dieser Zustand ist energetisch am günstigsten und wird daher vom System angestrebt. Alle anderen Konstellationen werden vom Boltzmann-Faktor exponentiell unterdrückt. Das sind die Spielregeln, und das erklärt auch den Drang des Systems, ins Gleichgewicht zurückzukehren.

Eine ähnliche Überlegung gilt für den Versuch, die Nullpunktenergie des Universums zu reduzieren, um damit ein Perpetuum mobile anzutreiben. Auch das funktioniert nicht. Denn nicht das absolute Energie- und Temperaturniveau ist entscheidend, sondern ob sich das System im Gleichgewicht befindet oder nicht. Wie wir bereits wissen, kann ein System im Gleichgewicht, wie die Nullpunktenergie, keine äußere Arbeit mehr verrichten.

Ähnlich verhält es sich mit Zeitreisen, der Rückkehr in die Vergangenheit, um dort z.B. eine Person daran zu hindern, etwas zu tun, was in der Gegenwart zu einer misslichen Situation geführt hat. Einen in der Vergangenheit gemachten Fehler zu reparieren wäre toll. Um zu zeigen, dass das nicht funktionieren kann, werden meist eine Menge Kausalitätsüberlegungen angestellt. Viel einfacher kann man Zeitreisen mit thermodynamischen Argumenten den Weg versperren. Wenn man in einer Welt lebt, die sich ständig in Richtung zunehmender Entropie entwickelt, und man zurück will in die Vergangenheit, in eine Welt mit geringerer Entropie, dann muss man das Maß an Entropie entsprechend verringern. Die notwendige Energie würde mit fortschreitender Zeit dramatisch ansteigen. Vermutlich ist dies das schärfste Argument gegen eine Reise in die Vergangenheit.

Daran zeigt sich die vielseitige Anwendbarkeit und Mächtigkeit der Thermodynamik. Albert Einstein hat es wieder einmal auf den Punkt gebracht: »Eine Theorie ist desto eindrucksvoller, je grösser die Einfachheit ihrer Prämissen ist, je verschiedenartigere Dinge sie verknüpft und je weiter ihr Anwendungsbereich ist. Deshalb der tiefe Eindruck, den die klassische Thermodynamik auf mich machte. Es ist die einzige physikalische Theorie allgemeinen Inhalts, von der ich überzeugt bin, dass sie im Rahmen der Anwendbarkeit ihrer Grundbegriffe niemals umgestoßen wird.«

Tatsächlich finden die Modelle der Thermodynamik bzw. der statistischen Physik heute Anwendung in den verschiedensten Bereichen, in der Biologie, bei Leitsystemen im Straßenverkehr, der Finanzwissenschaft, der Spieltheorie, der Theorie komplexer Netzwerke, usw.

Noch ein Beispiel gefällig? Sogar die Hawking-Strahlung lässt sich mit der Thermodynamik erklären. Die gängige Theorie besagt, dass sich am Ereignishorizont eines Schwarzen Loches durch die allgegenwärtigen Quantenfluktuationen ein virtuelles Teilchen/Antiteilchen-Paar bildet. Eines der Teilchen fällt in das Schwarze Loch, das andere entkommt und annihiliert mit einem weiteren Teilchen, das sich ebenfalls auf der Flucht befindet, zur Hawking-Strahlung. Die thermodynamische Erklärung ist viel einfacher. Stürzt Materie in ein von der Raumzeit kausal abgekoppeltes Schwarzes Loch, dann gehen dem Universum Teilchen verloren. Das wiederum bedeutet: Es sind weniger Mikrozustände möglich, die Entropie des Universums verringert sich. Theoretisch ist das ein Verstoß gegen den Zweiten Hauptsatz der Thermodynamik, denn in einem geschlossenen System kann die Entropie bestenfalls gleich bleiben, aber nie kleiner werden. Also wohin mit der Entropie, die dem Universum scheinbar verloren gegangen ist? Hawking hat sie einfach dem Schwarzen Loch zugewiesen! Damit war das Defizit an Entropie im Universum wieder ausgeglichen. Doch damit handelt man sich ein Problem ein: Denn wenn man einem System eine Entropie zuweist, hat man es automatisch mit einer Temperatur größer null zu tun. Und da jedes System, das eine Temperatur größer null hat, strahlt, sollte auch das Schwarze Loch Strahlung emittieren. Fazit: Obwohl man zunächst vermutet, die Hawking-Strahlung hätte rein gar nichts mit Thermodynamik zu tun, zeigt sich überraschenderweise doch, dass sich selbst dieser Effekt anhand thermodynamischer Überlegungen verstehen lässt. Die Thermodynamik erzwingt förmlich die Hawking-Strahlung.

Blicken wir abschließend noch kurz auf uns selbst. Unsere Körper befinden sich nicht im thermodynamischen Gleichgewicht mit der Umgebung. Das erkennt man bereits daran, dass unsere Körper wärmer sind als unsere Umgebung. Unsere Moleküle sind auch nicht homogen im gesamten Raum verteilt, sondern scharf lokalisiert. Wir, generell alle Lebewesen, sind Nichtgleichgewichtssysteme! Um diesen energetisch anspruchsvollen Luxus aufrechtzuerhalten, muss Arbeit verrichtet werden. Und genau das machen wir ja auch bzw. unser Körper. Dazu benötigen wir Energie in Form von Nahrung, mit der wir einen Stoffwechsel antreiben können. Die schlechte Nachricht zu diesem Thema: Irgendwann werden wir den Kampf gegen den Gleichgewichtstrend verlieren. Spätestens mit unserem Tod werden die Prozesse eingeläutet, die uns ins Gleichgewicht mit dem Universum bringen.

Die Thermodynamik ist sehr hilfreich bei dem Versuch, das Universum zu verstehen. Aber ist sie auch in der Lage, das Phänomen Leben zu erklären? Ist es überhaupt erstrebenswert, oder kommt die Antwort vielleicht von ganz anderer Seite? Kurt Tucholsky soll einmal gesagt haben: Lasst uns das Leben genießen, solange wir es nicht verstehen.

1.5Negative absolute Temperatur

Sprechen wir im Alltag von Temperatur, ist jedem klar, was gemeint ist: Bei niedriger Außentemperatur ist es ratsam, nicht ohne Schal aus dem Haus zu gehen, und wenn das Thermometer 30 Grad im Schatten zeigt, dann kann eine Wanderung schon mal schweißtreibend werden. Aber was genau hat man unter dem Begriff »thermodynamische absolute Temperatur« zu verstehen? Im vorausgegangenen Kapitel haben wir uns schon darüber Gedanken gemacht, wie man z.B. ein System mit rund 1023 Teilchen »temperaturmäßig packen« könnte. Das Problem dabei: Zum einen unterscheiden sich die Teilchen stark hinsichtlich ihrer kinetischen Energie, zum anderen tauschen sie fortwährend Energie aus, beispielsweise durch Stöße. Um Aussagen machen zu können, wie sich das auf das gesamte Teilchenensemble auswirkt, müsste man genau genommen den Impuls und die Bahn jedes einzelnen Teilchens kennen, um die bei den Kollisionen jeweilig abgegebene bzw. erhaltene Energie berechnen zu können. Da das ein ziemlich hoffnungsloses Unterfangen wäre, haben wir nach einer einfacheren Lösung gesucht und für das thermische Gewusel eines Vielteilchensystems ein lineares mittleres Maß definiert, das wir Temperatur genannt haben, Temperatur gemessen in Kelvin.

Mit diesem Begriff lässt sich recht gut beschreiben, was wir fühlen, wenn wir einen Körper berühren, der eine höhere Temperatur hat als unsere Hand. Wir spüren die Wärme des Körpers insgesamt, ohne dass wir dabei jedes Atom und dessen Energieübertrag im Einzelnen wahrnehmen. Doch bei der Verwendung des Begriffes »warm« und seines Gegenpols »kalt« ist Vorsicht geboten. Laufen wir z.B. barfuß über den Fliesenboden im Badezimmer, so kommt uns dieser relativ kalt vor, die Luft im gleichen Raum dagegen deutlich wärmer, und das, obwohl doch Fliesen und Luft gleiche Temperatur haben sollten, weil sie schon über Stunden im thermischen Kontakt miteinander stehen. Offensichtlich sind die Fliesen effizienter, wenn es darum geht, den Impuls der Atome unserer Füße »abzuleiten«, so dass wir sie als kalt empfinden. Ein Grund dafür ist in der Teilchendichte der Fliesen bzw. der Luft zu suchen. Pro Volumeneinheit sind in der Badezimmerluft viel weniger Teilchen enthalten als im Fliesenmaterial. Folglich gibt es zwischen der Luft und unserer Hand pro Zeiteinheit auch viel weniger Kontakte und damit weniger Möglichkeiten, Wärme abzugeben. Ähnlich erginge es einem nackten Astronauten im Erdorbit. Er wäre den hochenergetischen Teilchen des sogenannten Sonnenwindes ausgesetzt, die im Magnetfeld der Sonnencorona auf Temperaturen bis zu einer Million Kelvin aufgeheizt werden. Trotz der hohen Energie der Teilchen würde ihn das nicht nennenswert wärmen, weil die Teilchendichte im Sonnenwind sehr gering ist. Wir sollten uns jedoch um den Astronauten keine Sorgen machen, denn so dumm, seinen Raumanzug abzulegen, würde er sicher nicht sein. Aber das Beispiel zeigt uns, dass wir im Zusammenhang mit »heiß« und »kalt« noch etwas tiefer schürfen müssen.

Bisher bestand ja Einvernehmen in der Vorstellung: Je intensiver die Teilchen in einem Gas durcheinanderwirbeln, umso höher ist die Temperatur und umso wärmer ist das Gas. In diesem Sinne lässt sich auch der Begriff Kälte als die Abwesenheit von Wärme verstehen. Wir dämpfen einfach das Ausmaß der Teilchenbewegungen, bzw. wir entnehmen dem System auf irgendeine Weise Energie, machen damit das System immer kälter und nähern uns so dem absoluten Temperaturnullpunkt. Wenn wir schließlich dem System keine Energie mehr entnehmen können, wird es logischerweise auch nicht mehr kälter. Insgesamt ist diese Vorstellung ja recht einleuchtend – aber sie greift zu kurz. Wo wir hinwollen, da benötigen wir ein abstrakteres Verständnis von Wärme und Kälte.

Beginnen wir mit dem uns vertrauten Energieerhaltungssatz der Thermodynamik (1.7):

  

Halten wir in unserem System das Volumen fest, d.h. V soll sich nicht ändern, dann wird die Größe dV gleich null und die Gleichung geht über in

  (1.19)

Da wir uns für die Temperatur T interessieren, stellen wir um:

  (1.20)

Das Symbol ∂ in (1.20) steht für partielle Differentiation, das bedeutet, dass eine Funktion mit mehreren Argumenten nur nach einem ihrer Argumente abgeleitet wird, während die restlichen als konstant angenommen werden. In unserem Fall leiten wir also nur nach E ab und lassen V dabei konstant. Korrekterweise müsste man das wie folgt schreiben:

  (1.21)

wobei der senkrechte Strich und das tiefgestellte V am Ende von (1.21) darauf hinweisen, dass das Volumen V festgehalten wird. Wichtig ist nun, dass wir mit der Gleichung (1.21) einen Begriff für den Kehrwert der Temperatur T