9,99 €
Mit der Hypothese, dass Energie nicht kontinuierlich, sondern in "Päckchen" – den sogenannten Quanten – abgegeben wird, läutete Max Planck 1900 die Ära der Quantenphysik ein. Ihre Aussagen halfen, bekannte Phänomene zu begründen, stellten aber gleichzeitig vertraute Regeln der klassischen Mechanik auf den Kopf. Ebenso wie die Welt der Quanten nie statisch ist und sich ständig wandelt, hat ihre Erforschung viele physikalische Konzepte grundlegend verändert – und tut dies auch heute noch. Gert-Ludwig Ingold beschreibt die Grundlagen und die geschichtlichen Hintergründe der Quantentheorie und bis hin zur aktuellen Entwicklung der Quantencomputer.
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Veröffentlichungsjahr: 2025
Gert-Ludwig Ingold
QUANTENTHEORIE
Grundlagen der modernen Physik
C.H.Beck
Cover
Inhalt
Textbeginn
Titel
Inhalt
Einleitung
1. Das Markenzeichen der Quantentheorie
1.1 Sind Naturkonstanten eigentlich konstant?
1.2 Ein heißes Eisen und die Anfänge der Quantentheorie
1.3 Winzig, aber wichtig: das plancksche Wirkungsquant
2. Welle oder Teilchen?
2.1 Licht – Welle oder Teilchen?
2.2 Von Wasser- und anderen Wellen
2.3 Und Newton hatte doch nicht ganz unrecht
2.4 Nur Teilchen oder auch Welle?
2.5 Man kann nicht alles wissen
2.6 Nichts geht mehr in geregelten Bahnen
2.7 Mit dem Kopf durch die Wand
3. Maßstäbe und Uhren mit Atomen
3.1 Atomare Fingerabdrücke
3.2 Das Atom – ein kleines Planetensystem?
3.3 Zwei Urlauber auf Entdeckungsreise
3.4 Frei oder gebunden
3.5 Lücken im Regenbogen
3.6 Es muss nicht immer nur ein Zustand sein
3.7 Ein Springbrunnen als Uhr
4. Das Vakuum ist überhaupt nicht leer
4.1 Das Pendel kommt nicht zur Ruhe
4.2 Jetzt wird Licht gequetscht
4.3 Warum sich Spiegel anziehen können
5. Rechnen mit Quanten
5.1 Vom Bit zum Qubit
5.2 Konstant oder ausgeglichen
5.3 Abhören unmöglich gemacht
5.4 Spukhafte Fernwirkung
6. Störende Beobachtung
6.1 Die Frage nach dem Weg
6.2 Ein Atom hinterlässt eine Botschaft
6.3 Der Quantenradiergummi
7. Von der mikroskopischen zur makroskopischen Welt
7.1 Rein oder Gemisch?
7.2 Der Einfluss der Umgebung
7.3 Schrödingers Kätzchen
Quellenverweise und Literatur
Auflösung von Seite 49
Register
Zum Buch
Vita
Impressum
Ungefähr seit der Jahrtausendwende werden wir Zeugen einer zweiten Quantenrevolution: Die gezielte Manipulation von Quantenzuständen beginnt, die Basis für praktische Anwendungen darzustellen. Man spricht in diesem Zusammenhang auch von Quantentechnologien. Hierzu gehört insbesondere die Quanteninformationsverarbeitung. Quantencomputer versprechen eine höhere Leistungsfähigkeit durch die parallele Verarbeitung quantenmechanischer Überlagerungszustände. Während dadurch klassische Verschlüsselungsverfahren angreifbar werden, erlaubt Quantenkryptographie im Prinzip eine abhörsichere Kommunikation. Die hohe Sensitivität von Quantensystemen macht man sich bei der Entwicklung neuartiger Quantensensoren zu Nutze. Die Entwicklung von Quantentechnologien ist in vollem Gange, und man darf gespannt sein, was die Zukunft alles bereithält.
Bereits die erste Quantenrevolution im frühen 20. Jahrhundert hatte große technologische Implikationen. Mit der Quantentheorie ließ sich die atomare Welt zum ersten Mal adäquat beschreiben. Mit Hilfe der Kernphysik wurde es möglich, Kernreaktoren zur Energiegewinnung zu entwickeln, aber auch die Atombombe zu bauen. Gleichzeitig erklärt die Kernphysik, wie die Energieproduktion in der Sonne abläuft, ohne die Leben auf der Erde unmöglich wäre. Vielleicht werden Fusionsreaktoren eines Tages in der Lage sein, diese Mechanismen zur Energieerzeugung auf der Erde zu nutzen.
Die Quantentheorie bildet die Grundlage der gesamten Chemie bis hin zur Molekularbiologie, denn nur sie kann die Mechanismen erklären, die Atome zu Molekülen zusammenbinden. Wichtige Schritte bei der Photosynthese, die den Pflanzen die Gewinnung von Energie aus Sonnenlicht ermöglicht, basieren auf Quanteneffekten.
Auch die Eigenschaften fester Körper lassen sich ohne Quantentheorie nicht verstehen. Erst mit ihr wurde es möglich, Transistoren zu entwickeln, die die Basis unserer modernen Informationsinfrastruktur bilden. Ein weiteres Beispiel für die Anwendung der Festkörperphysik stellen Solarzellen dar. Der Magnetismus ist ebenso ein Quanteneffekt wie die Supraleitung, also die verlustlose Leitung von elektrischem Strom.
Die Wechselwirkung von Materie mit Licht wird mit Hilfe der Quantenoptik beschrieben. Laser, die ab etwa 1960 entwickelt wurden, sind heute in vielen Forschungslaboren zu finden. Sie besitzen darüber hinaus vielfältige Anwendungen, zum Beispiel in der Materialbearbeitung, der Medizin oder der Messtechnik. Die Atom-Licht-Wechselwirkung spielt auch in Atomuhren eine große Rolle, die uns mit einem präzisen Zeitsignal versorgen und das Global Positioning System, kurz GPS, zur Navigation überhaupt erst ermöglichen.
Diese Anwendungen und hundert Jahre Erfahrung mit Quantenphänomenen aller Art zeigen, dass wir uns auf die Quantentheorie verlassen können. Manche im Laufe der Menschheitsgeschichte lieb gewonnene Vorstellung hat in der Quantenwelt jedoch keine Gültigkeit mehr.
So ist das Konzept einer Bahn, entlang der sich ein Objekt bewegt, in der Quantentheorie nicht mehr haltbar. Dies mag manch einen irritieren, da die Vorstellung von der Existenz einer Bahn eigentlich überlebenswichtig ist. Genauso wie der jagende Steinzeitmensch die Bahn seiner Beute vorhersehen musste, um erfolgreich zu sein, so müssen wir heute in der Lage sein, die Bahn der Autos im Straßenverkehr um uns herum vorherzusehen. Das setzt natürlich zunächst voraus, dass diese Bahn überhaupt existiert. Allerdings gibt es keinen Grund, warum Erfahrungen aus der Alltagswelt im atomaren Bereich unverändert gelten sollten.
Mit der Quantentheorie hat auch ein gewisses Maß an Unbestimmtheit Einzug in die Physik gehalten. Noch im 19. Jahrhundert hatte man gedacht, dass sich die Entwicklung eines physikalischen Systems zumindest im Prinzip genau vorhersagen lässt. In der Quantentheorie ist dagegen der Ausgang einer Messung im Allgemeinen nicht mit Sicherheit vorhersagbar. Dies bedeutet allerdings keineswegs, dass nun dem Zufall Tür und Tor geöffnet wäre. Die Physik liefert weiterhin klare Aussagen, die sich experimentell überprüfen lassen.
Auch wenn die Abkehr vom klassischen Denken schwerfallen mag, so liegt hierin doch eine Herausforderung, die zum Reiz der Beschäftigung mit der Quantentheorie beiträgt. Daraus ergeben sich auch verschiedene Fragestellungen metaphysischer oder philosophischer Natur. In diesem Band wollen wir uns allerdings auf die Aspekte der Quantentheorie konzentrieren, die im physikalischen Experiment überprüft werden können.
Es gibt vielfältige Gründe, sich mit der Quantentheorie zu beschäftigen. Begeben wir uns daher auf eine Entdeckungsreise in die Welt der Quanten.
Oklo (Gabun), vor fast zwei Milliarden Jahren, ein unterirdisches Uranvorkommen. Wasser dringt ein. Die beim Zerfall von Uran-235-Kernen freigesetzten Neutronen werden durch das Wasser abgebremst, eine Kettenreaktion kommt in Gang. Einige hunderttausend Jahre lang läuft ein Kernreaktor unter dem afrikanischen Kontinent.
Pierrelatte im Departement Drôme (Frankreich), 1972, in einer Urananreicherungsanlage. Bei der Analyse von Gesteinsmaterial aus den Minen von Gabun bemerkt ein Techniker, dass die Proben eine ungewöhnliche Zusammensetzung aufweisen. Es dauert nicht lange, bis die Ursache klar wird, das Geheimnis von Oklo war gelüftet. Zwar hatte Enrico Fermi dreißig Jahre zuvor in Chicago den ersten von Menschenhand geschaffenen Kernreaktor in Betrieb genommen, die Natur war ihm aber um Längen zuvorgekommen.
Die prähistorischen Reaktoren in Oklo und dem benachbarten Bangombé sind trotz ihrer Einzigartigkeit heute durch Uranabbau fast vollständig zerstört. Dabei eröffnen sie die seltene Gelegenheit zu studieren, wie sich bestimmte physikalische Vorgänge vor zwei Milliarden Jahren abgespielt haben. Warum aber kann es für den Physiker überhaupt interessant sein, so weit in die Vergangenheit zurückzublicken?
Ziel physikalischer Forschung ist es, eine richtige Beschreibung von Vorgängen in der unbelebten Natur zu entwickeln. Lassen sich experimentelle Beobachtungen nicht erklären oder stehen sie im Widerspruch zu theoretischen Vorhersagen, so gibt es Handlungsbedarf. Bestehende Theorien müssen dann korrigiert oder erweitert werden. Gelegentlich kann es sogar notwendig sein, eine Theorie von Grund auf neu zu entwickeln. Genau dies war zu Beginn des 20. Jahrhunderts der Fall, als sich experimentelle Befunde mehrten, die sich mit den bekannten Theorien nicht beschreiben ließen. Es bedurfte des Zusammenwirkens der brillantesten Physiker dieser Zeit, um innerhalb von 25 Jahren die Quantentheorie zu schaffen, von der in diesem Buch die Rede sein soll.
Eine physikalische Theorie soll uns jedoch nicht nur heute eine richtige Beschreibung der Natur liefern. Sie hat ihren Nutzen vor allem darin, dass sie auch in der Zukunft gültig ist und es uns damit erlaubt, Vorhersagen zu machen. Es lohnt sich aber auch, Beobachtung und Theorie in der Vergangenheit zu vergleichen, und sei es vor zwei Milliarden Jahren oder noch früher. Passt alles, so wird dies das Vertrauen in die Richtigkeit der Theorie stärken. Diskrepanzen deuten dagegen darauf hin, dass es noch etwas zu verstehen gilt.
Die Informationen aus der Vergangenheit sind natürlich begrenzt. Aus den Überresten der natürlichen Reaktoren von Oklo können wir aber zum Beispiel wertvolle Informationen über den früheren Wert bestimmter Naturkonstanten gewinnen. Dabei handelt es sich um fundamentale Größen, deren Wert sich, zumindest bis heute, nicht aus einer Theorie berechnen lässt. Naturkonstanten sind häufig charakteristisch für eine bestimmte Art von Phänomenen oder auch eine physikalische Theorie.
Ein Beispiel für eine Naturkonstante ist die Lichtgeschwindigkeit, also die Geschwindigkeit, mit der sich elektromagnetische Wellen wie Licht oder Radiowellen im Vakuum ausbreiten. Bereits Galileo Galilei hatte einen Versuch zur Messung der Geschwindigkeit von Licht angestellt, der jedoch nicht von Erfolg gekrönt war. Im Jahre 1676 bestimmte Olaf Römer durch Beobachtung der Monde des Planeten Jupiter zum ersten Mal einen, wenn auch nicht sehr präzisen Wert für die Lichtgeschwindigkeit. Gegen Ende des 19. Jahrhunderts sorgten die Experimente von Albert Abraham Michelson und Edward William Morley für Aufsehen, die nachwiesen, dass die Lichtgeschwindigkeit unabhängig von der Geschwindigkeit des Bezugssystems ist.
Normalerweise addieren sich Geschwindigkeiten. Beobachten wir zum Beispiel vom Ufer aus einen Schwimmer in einem Fluss. Die Geschwindigkeit, mit der sich der Schwimmer an uns vorbeibewegt, ergibt sich dann aus zwei Beiträgen. Zur Geschwindigkeit des Schwimmers im Wasser kommt noch die Fließgeschwindigkeit des Flusses hinzu. Ähnliches würde man auch für die Geschwindigkeit von Licht erwarten, das vom Scheinwerfer eines fahrenden Autos abgestrahlt wird. Das Ergebnis von Michelson und Morley widerspricht dieser Vermutung: Unabhängig von der Geschwindigkeit des Autos ist die Geschwindigkeit des abgestrahlten Lichts immer gleich groß.
Eine Erklärung hierfür lieferte zu Beginn des 20. Jahrhunderts Albert Einstein mit seiner speziellen Relativitätstheorie. Die Lichtgeschwindigkeit spielt hierbei eine zentrale Rolle. Nur wenn Geschwindigkeiten viel kleiner sind als die Lichtgeschwindigkeit, dürfen wir die uns aus dem Alltagsleben vertraute Mechanik verwenden. Ansonsten muss die spezielle Relativitätstheorie verwendet werden, die somit die umfassendere Theorie darstellt.
Eine andere wichtige Naturkonstante ist die Elementarladung, deren Geschichte unter anderem mit dem berühmten millikanschen Öltröpfchenversuch verknüpft ist. Alle uns heute bekannten Elementarteilchen tragen als Ladung ein ganzzahliges Vielfaches der Elementarladung und nur bei den Quarks, noch elementareren Bausteinen der Materie, muss von Ladungen ausgegangen werden, die ein oder zwei Drittel der Elementarladung betragen. Die Elementarladung kommt immer dann ins Spiel, wenn es um die elektromagnetische Wechselwirkung, zum Beispiel die Abstoßung zwischen zwei Elektronen, geht. Die Entwicklung der klassischen Theorie der Dynamik von Ladungen und ihrer Wechselwirkungen, die sogenannte Elektrodynamik, kam im 19. Jahrhundert vor allem durch die maßgeblichen Beiträge von James Clerk Maxwell zu einem Abschluss.
Es gibt keine Hinweise darauf, dass die beiden genannten und auch andere Naturkonstanten sich auf Zeitskalen von Jahren oder auch Hunderten von Jahren ändern. Es ist daher verführerisch anzunehmen, dass diese Größen schon immer den gleichen Wert hatten wie heute. Experimentelle Belege hierfür zu finden, ist meistens sehr schwierig. Es gibt jedoch Ausnahmen.
Die prähistorischen Reaktoren von Oklo und Bangombé erlauben es uns, den Wert zu bestimmen, den die Feinstrukturkonstante vor zwei Milliarden Jahren hatte. Diese Naturkonstante wurde erst 1915 von Arnold Sommerfeld im Zusammenhang mit quantentheoretischen Überlegungen zum Wasserstoffatom eingeführt. Der Wert der Feinstrukturkonstanten beträgt etwa 1/137. Sie ist jedoch auf zehn Stellen genau bekannt. Um Ähnliches beim Erdumfang zu erreichen, müsste man diesen auf ein paar Millimeter genau vermessen. Die enorme Präzision, mit der man die Feinstrukturkonstante kennt, ermöglicht es, dass die Quantenelektrodynamik, also die Quantentheorie der elektromagnetischen Wechselwirkung, die am besten überprüfte physikalische Theorie ist.
Um die Wichtigkeit der Feinstrukturkonstante in der Physik zu testen, genügt es übrigens, gegenüber einem Physiker die Zahl 137 zu erwähnen. Ein Mathematiker mag dabei vielleicht an Primzahlen denken, einem Physiker wird sicherlich sofort die Feinstrukturkonstante einfallen.
Wie steht es nun um die Konstanz der Feinstrukturkonstanten? Eine Analyse der prähistorischen Daten von Oklo zeigt beruhigenderweise, dass ihr Wert vor zwei Milliarden Jahren der gleiche war wie heute. Mehr über die Vergangenheit der Feinstrukturkonstanten lässt sich mit Hilfe von Quasaren erfahren. Diese astronomischen Objekte sind aufgrund ihrer großen Entfernung von der Erde sehr gut geeignet, um noch weiter in die Vergangenheit zu schauen. Dabei zeigen neuere Analysen zwar im Wesentlichen keine Hinweise auf eine zeitliche Veränderung der Feinstrukturkonstanten. Allerdings gibt es einen bestimmten Zeitbereich, in dem die experimentellen Daten nicht mit einer konstanten Feinstrukturkonstanten in Einklang sind. Wie ernst diese Abweichungen zu nehmen sind, bleibt zum gegenwärtigen Zeitpunkt abzuwarten.
Die Feinstrukturkonstante, deren Vergangenheit wir so gut kennen, ist eigentlich eine Kombination von drei anderen Naturkonstanten. Zwei von ihnen haben wir schon kennengelernt: die Lichtgeschwindigkeit und die Elementarladung. Der dritte Bestandteil war am Ende des 19. Jahrhunderts noch vollkommen unbekannt, als viele schon der Meinung waren, die Physik sei praktisch abgeschlossen und es gäbe nichts wesentlich Neues mehr zu entdecken. So wurde es 1874 auch dem damals sechzehnjährigen Max Planck gesagt, der Rat bei der Wahl eines Studienfaches suchte. Letztendlich entschied er sich doch gegen Musik und Altphilologie und nahm das Studium der Physik auf, eine gute Wahl, wie wir bald sehen werden. Denn es gab noch ein paar ungelöste Probleme...
Erhitzt man ein Stück Eisen stark genug, so wird es rotglühend. Entsprechend sendet es im sichtbaren Bereich vor allem rotes Licht aus. Hinzu kommt noch die Infrarotstrahlung, die wir wegen ihrer kleineren Frequenz zwar nicht mehr sehen können, aber dennoch als Wärmestrahlung wahrnehmen. Es wird also Strahlung in einem ganzen Frequenzbereich abgegeben. Erhitzen wir das Metall weiter, so verschiebt sich dieser Bereich in Richtung blau, also zu größeren Frequenzen hin. Schließlich wird das gesamte sichtbare Spektrum abgedeckt. Alle Regenbogenfarben ergeben zusammengenommen weiß, wir haben das Metall zur Weißglut gebracht.
Dieses lange bekannte Phänomen wurde von Physikern genauestens untersucht, seit Gustav Kirchhoff 1859 erkannt hatte, dass die Wärmestrahlung, die von einem ideal schwarzen Körper abgegeben wird, universell ist. Sie hängt also nicht von den speziellen Eigenschaften des verwendeten Materials ab, sondern einzig und allein von dessen Temperatur sowie der Frequenz der Strahlung.
Ein schwarzer Körper zeichnet sich dadurch aus, dass er alles Licht, das auf ihn fällt, absorbiert, anstatt es zu reflektieren. Einen solchen Körper zu realisieren, scheint vielleicht auf den ersten Blick nicht ganz einfach zu sein. Wie man seit 1895 weiß, genügt es jedoch, einen Hohlkörper zu nehmen und diesen mit einem winzigen Loch zu versehen. Das Loch erlaubt es einerseits, die im Hohlraum vorhandene Wärmestrahlung zu beobachten. Andererseits würde das Licht, das durch das Loch in den Hohlraum fällt, erst nach sehr vielen Reflexionen wieder nach außen gelangen, sodass es in Wirklichkeit vorher an der inneren Wand absorbiert wird. Misst man die Intensität der Strahlung im Hohlraum als Funktion der Frequenz, so erhält man die in Abbildung 1 als durchgezogene Linie gezeigte Kurve. Klar ist das Maximum der Intensität zu erkennen. Da auf der Abszisse das Verhältnis von Frequenz zu Temperatur aufgetragen ist, folgt daraus, dass mit einer Erhöhung der Temperatur eine Erhöhung der Frequenz des Intensitätsmaximums verknüpft ist. Dies steht mit der eingangs beschriebenen Alltagserfahrung in Einklang.
Allerdings ist es mit Mitteln der klassischen Physik nicht möglich, das Intensitätsmaximum zu erklären. Am Ende des 19. Jahrhunderts war man zum Beispiel durchaus in der Lage, das Verhalten bei kleinen Frequenzen zu erklären. Die theoretische Vorhersage ist im linken Teil der Abbildung 1 durch eine gestrichelte Linie angedeutet. Nimmt man dieses Resultat aber ernst, so bedeutet es, dass mit steigender Frequenz die Intensität der abgegebenen Strahlung immer mehr zunimmt. In der Summe aller Frequenzen hätte dies die katastrophale Konsequenz, dass in einem schwarzen Körper endlicher Größe unendlich viel Energie vorhanden wäre. Erst wenn die Intensität bei großen Frequenzen wieder abnimmt, kann die Energie des schwarzen Körpers endlich sein. Es ist daher wichtig, das Maximum in Abbildung 1 erklären zu können.
Das 20. Jahrhundert hatte jedoch kaum begonnen, als Max Planck, inzwischen Professor in Berlin, den Weg zum Verständnis der Schwarzkörperstrahlung wies. Damit war eine Entwicklung angestoßen, deren Konsequenzen weit über die Erklärung eines speziellen physikalischen Phänomens hinausreichen und das Jahrhundert prägen sollten.