Wetter, Viren und Wahrscheinlichkeit - Ian Stewart - E-Book

Wetter, Viren und Wahrscheinlichkeit E-Book

Ian Stewart

0,0
17,99 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Wir leben in unsicheren Zeiten, manches scheint gerade ungewiss − Corona und das Klima etwa. Wir möchten unsere Zukunft gerne kennen, statt den Ereignissen einfach ausgesetzt zu sein: Ob es um das Wetter geht, die Börsenkurse, unsere Chancen vor Gericht oder beim Lotto, das Geschlecht unseres Kindes, die Berechnung einer Herdenimpfung. Und man kann das tatsächlich näherungsweise herausfinden. Wie − das zeigt uns der britische Kult-Mathematiker Ian Stewart in diesem Buch. Wie machen wir aus Nichtwissen Wissen? Wie bekommen wir mehr Sicherheit, welche unserer Entscheidungen die beste ist? Wenn es darum geht, das scheinbar Zufällige zu beherrschen, haben wir es mit den Mitteln der Statistik und Wahrscheinlichkeitsrechnung weit gebracht. Heute können wir vielfältige Formen von Unwissen bis zu einem gewissen Grad mess- und handhabbar machen.  Allerdings, das zeigt Ian Stewart auch, haben wir in unserem Jahrhunderte währenden Bemühen, uns mit dem Unbekannten bekannt zu machen, immer auch neue Ungewissheiten entdeckt. Und oft genug gab es dabei fatale Fehlurteile. Man muss also schon wissen, wie es geht. Ian Stewart führt es uns gewohnt kurzweilig und mit leichter Hand vor. 

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB

Seitenzahl: 525

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Ian Stewart

Wetter, Viren und Wahrscheinlichkeit

Wie wir die Ungewissheiten des Lebens berechenbar machen

 

 

Aus dem Englischen von Monika Niehaus und Bernd Schuh

 

Über dieses Buch

Wir leben in unsicheren Zeiten, manches scheint gerade ungewiss − Corona und das Klima etwa. Wir möchten unsere Zukunft gerne kennen, statt den Ereignissen einfach ausgesetzt zu sein: ob es um das Wetter geht, die Börsenkurse, unsere Chancen vor Gericht oder beim Lotto, das Geschlecht unseres Kindes, die Berechnung einer Herdenimpfung. Und man kann das tatsächlich näherungsweise herausfinden. Wie − das zeigt uns der britische Kult-Mathematiker Ian Stewart in diesem Buch. Wie machen wir aus Nichtwissen Wissen? Wie bekommen wir mehr Sicherheit, welche unserer Entscheidungen die Beste ist? Wenn es darum geht, das scheinbar Zufällige zu beherrschen, haben wir es mit den Mitteln der Statistik und Wahrscheinlichkeitsrechnung weit gebracht. Heute können wir vielfältige Formen von Unwissen bis zu einem gewissen Grad mess- und handhabbar machen. 

Allerdings, das zeigt Ian Stewart auch, haben wir in unserem Jahrhunderte währenden Bemühen, uns mit dem Unbekannten bekannt zu machen, immer auch neue Ungewissheiten entdeckt. Und oft genug gab es dabei fatale Fehlurteile. Man muss also schon wissen, wie es geht. Ian Stewart führt es uns gewohnt kurzweilig und mit leichter Hand vor. 

Vita

Ian Stewart, geboren 1945, ist der beliebteste Mathematik-Professor Großbritanniens. Seit Jahrzehnten bemüht er sich erfolgreich, seine Wissenschaft zu popularisieren. Er studierte Mathematik in Cambridge und promovierte an der Universität Warwick. Dort ist er heute Professor für Mathematik und Direktor des Mathematics Awareness Center. Seit 2001 ist Stewart zudem Mitglied der Royal Society. Er lebt mit seiner Familie in Coventry.

 

Monika Niehaus, Diplom in Biologie, Promotion in Neuro- und Sinnesphysiologie, freiberuflich als Autorin (SF, Krimi, Sachbücher), Journalistin und naturwissenschaftliche Übersetzerin (englisch/französisch) tätig. Mag Katzen, kocht und isst gern in geselliger Runde.

 

Bernd Schuh, geboren 1948 ist Physiker, Dozent, Journalist, Autor und Übersetzer. Er studierte Mathematik, Physik und Chemie in Köln, wurde 1977 promoviert und habilitierte sich 1982 in Physik. Er ist Träger des Georg von Holtzbrinck Preises für Wissenschaftsjournalismus.

 

Die Mathematik zu COVID-19 – ein Vorwort

Die ursprüngliche englische Ausgabe von Wetter, Viren undWahrscheinlichkeit (Do Dice Play God?) erschien vor Beginn der COVID-19-Pandemie; darum wurde dieses aktuelle und wichtige Beispiel für Ungewissheit und ihre Berechnung auf globaler Ebene nicht erwähnt – ich hole das in diesem Vorwort nach, das während der Pandemie selbst verfasst wurde.

Die Pandemie illustriert sehr deutlich einige Schlüsselelemente, die den heutigen Umgang mit Ungewissheit kennzeichnen. Zunächst sollte man anführen, dass das Ausmaß, in dem ein solches Ereignis «vorhersehbar» ist, davon abhängt, was man vorhersagen will. Die Ärzteschaft und die wichtigsten internationalen medizinischen Institutionen wie die Weltgesundheitsorganisation (WHO) haben seit Jahren gewarnt, eine große und globale Pandemie sei unausweichlich und dass Regierungen in aller Welt sich darauf vorbereiten sollten. Die Logik dahinter ist leicht nachvollziehbar. Ständig entwickeln sich neue Viren. Störungen der natürlichen Umwelt, die in großem Maßstab stattfinden, können dazu führen, dass einige Viren von Tieren auf Menschen überspringen, und das geschieht dann auch. Durch den weltweiten Reiseverkehr, vor allem den Flugverkehr, kann sich eine neue Infektionskrankheit innerhalb weniger Wochen über den ganzen Globus verbreiten. Unser Lebensstil schafft ideale Bedingungen für die Entwicklung und die weltweite Verbreitung neuer Krankheitserreger.

Niemand indessen konnte vorhersagen, wann eine Pandemie ausbrechen würde und welche Form sie annehmen würde. Viele Regierungen erstellten Pläne, um mit einer Influenza-Pandemie fertigzuwerden; nur wenige zogen die Möglichkeit einer Coronavirus-Pandemie in Betracht, obgleich die WHO ausdrücklich vor einer solchen Möglichkeit gewarnt hatte.

Der nächste Punkt ist, dass wir inzwischen über Instrumente zur Untersuchung und Bekämpfung von Epidemien und Pandemien verfügen. Viele dieser Werkzeuge verdanken wir Fortschritten in Biologie, Medizin und Ingenieurswissenschaften; die erstaunlich rasche Entwicklung und Herstellung von Impfstoffen gegen COVID-19 ist ein gutes Beispiel dafür. Da es in diesem Buch um Mathematik geht, will ich mich auf eine Auswahl der mathematischen Instrumente beschränken, die uns inzwischen zur Verfügung stehen.

Die Auswirkungen einer Infektionskrankheit hängen von vielen Faktoren ab: wie ansteckend sie ist, wie lange die Inkubationszeit dauert, ob schon offensichtliche Symptome auftreten, bevor die Erkrankung ansteckend wird oder erst danach, und wie stark sie die menschliche Gesundheit gefährdet. Keines dieser Merkmale ist in dem Sinne vorhersagbar, dass wir es im Vorhinein bestimmen können. Aber sobald sich die Krankheit manifestiert und wir immer mehr Informationen erhalten, kann die medizinische Gemeinschaft wissenschaftliche Methoden einsetzen, um sie besser zu verstehen, und mathematische Methoden verwenden, um zu prognostizieren, wo und wann die Krankheit sich ausbreiten wird. Auch wenn solche Prognosen nicht perfekt sind, so sind sie doch ausreichend präzise, um der Politik als Leitfaden zu dienen, und die Bandbreite wahrscheinlicher Fehler lässt sich einschätzen.

Dazu werden verschiedene mathematische Methoden eingesetzt. Mithilfe der Statistik lässt sich die Wahrscheinlichkeit abschätzen, mit der sich Menschen anstecken oder an der Infektion sterben; ebenso, in welcher Weise bestimmte Interventionen die Ausbreitung der Krankheit beeinflussen. Die medizinische Statistik ist heutzutage hoch entwickelt: Siehe dazu auch Kapitel 12.

Ein weiterer Ansatz ist die Modellierung, bei der Wissenschaftler ein «mathematisches Modell» entwickeln. In diesem Zusammenhang meint der Begriff «Modell» nicht irgendetwas, das man aus Kunststoffteilen baut, zum Beispiel ein Modellflugzeug. Vielmehr bezieht er sich auf ein mathematisches System, das Schlüsselelemente der Infektion enthält, gewöhnlich als ein System von Gleichungen. Diese Gleichungen fassen grundlegende Merkmale der Krankheit zusammen, und die Lösungen der Gleichungen lassen uns verstehen, wie sich die Krankheit entwickelt und ausbreitet. Bis zu einem gewissen Grad erlauben uns diese Lösungen auch Vorhersagen, wie dies geschieht und welche Auswirkungen verschiedene Strategien (wie das Tragen von Masken oder Impfungen) vermutlich haben werden.

Mit modernen Computern ist es relativ einfach, die betreffenden Gleichungen zu lösen, es sei denn, das Modell ist extrem komplex. Der schwierige Schritt besteht darin, Modelle zu entwickeln, die so einfach sind, dass sie sich berechnen lassen, aber dennoch so realistisch bleiben, dass sie die Wirklichkeit recht präzise abbilden. Albert Einstein wird der Satz zugeschrieben, man sollte die Dinge so einfach wie möglich ausdrücken, aber nicht einfacher. Es ist die alte Zwickmühle mit der Landkarte und dem Gelände. Wenn die Karte zu simpel ist, bildet sie die Realität nicht ab, doch wenn sie allzu komplex ist, wird sie nutzlos. Wenn die Karte identisch mit dem Gelände ist, stellt sie ein perfektes Modell dar, aber dann braucht man sie nicht. Irgendwo in der Mitte findet sich der ideale Punkt, an dem die Karte einfängt, was für den beabsichtigten Zweck wichtig ist, ohne die Dinge durch Hinzunahme unwichtiger Faktoren allzu sehr zu komplizieren.

Solche Modelle zu entwickeln, erfordert viel Erfahrung, Fachwissen und eine ganze Menge an Versuch und Irrtum. Nichtmathematiker lassen sich zudem nur allzu leicht von der Komplexität des Modells und all den seltsamen Symbolen beeindrucken, in denen es sich ausdrückt, während sie sich doch darauf konzentrieren sollten, ob es einigermaßen präzise Vorhersagen über das erlaubt, was man wissen möchte.

Mathematische Modelle der Ausbreitung einer Krankheit lassen sich in zwei Haupttypen unterteilen. Ich will mit «klassischen» epidemiologischen Modellen beginnen. Sie arbeiten mit Quantitäten, die über die gesamte Population einer Stadt oder eines Landes gemittelt werden und faktisch davon ausgehen, dass jedermann in etwa demselben Infektionsniveau ausgesetzt ist und in etwa dasselbe Infektionsrisiko trägt. Hier kommt der häufig verwendete «R-Wert» – die mittlere Infektionsrate – ins Spiel. Weitere mathematische Fachbegriffe werden ebenso häufig verwendet, aber nicht immer erklärt; daher will ich versuchen, einen kurzen Überblick über die wichtigsten Begriffe zu geben, auf die Sie vielleicht schon gestoßen sind.

In der Frühphase einer Epidemie, wenn sich die Krankheit in einer Bevölkerung ohne angeborene Immunität ausbreitet, wächst die Zahl der Infizierten «exponentiell». Das heißt, dass sich die Zahl der Infizierten im Verlauf einer festgelegten Zeitspanne um einen konstanten Betrag vervielfacht. Beispielsweise kann sie sich jede Woche verdoppeln oder alle drei Tage mit 1,1 multipliziert werden. Exponentielles Wachstum finden die meisten von uns nicht intuitiv eingängig, denn es fängt langsam an und scheint zunächst keine große Gefahr darzustellen, um dann plötzlich geradewegs zu explodieren. Eine alte Legende, die aus dem Jahr 1256 n.Chr., wenn nicht gar aus noch früherer Zeit stammt, veranschaulicht dies. Der Erfinder des Schachspiels wird vom König aufgefordert, sich eine Belohnung zu wünschen. Er bittet um ein Reiskorn auf dem ersten Schachfeld, zwei Reiskörner auf dem zweiten, vier auf dem dritten und so weiter, also jedes Mal eine Verdopplung, bis alle Felder belegt sind. Der König lacht: nur ein paar Körner auf jedem Feld! Schließlich kommen nach dem sechsten Feld erst 63 Körner zusammen! Dann rechnet sein Schatzmeister ein wenig genauer nach und stellt fest, dass die Gesamtmenge an Reis all das, was das Land produzieren kann, weit übersteigt. Am Ende würden sich auf dem Schachbrett 18446744073709551615 Reiskörner türmen. Mit modernen Anbaumethoden würde es mehr als tausend Jahre dauern und den ganzen Planeten brauchen, um so viel Reis zu produzieren.

Ähnlich gibt es ein weitverbreitetes Partyspiel, bei dem ein großes Blatt Papier, zum Beispiel ein Zeitungsblatt, wiederholt auf die Hälfte gefaltet wird. Hier verdoppelt sich die Dicke mit jedem Falten. Anfangs geht das leicht, doch bald erreicht die Dicke einige Millimeter. Zugleich halbiert sich die Papierfläche mit jedem Mal weiter. Bald hält man eine kleine, dicke Masse Papier in der Hand, die zu steif ist, um sie weiterzufalten. In der Praxis sind in der Regel sieben Faltungen alles, was man schafft.

Etwa so verhält es sich bei COVID-19 – anfangs jedenfalls. Der berühmte R-Wert gibt an, wie viele weitere Menschen ein Infizierter im Mittel ansteckt. Beim ursprünglichen Virenstamm blieben Infizierte rund 8–9 Tage lang ansteckend; um die Dinge zu vereinfachen, sagen wir eine Woche. Angenommen, der R-Wert beträgt 1,1. Nach einer Woche hat jeder Infizierte im Durchschnitt 1,1 neue Infektionen verursacht. Eine Woche später beträgt die Zahl 1,1 × 1,1 = 1,21 – immer noch wenig. In den folgenden Wochen wächst diese Zahl auf 1,33, dann 1,46, dann 1,61. Nach acht Wochen liegt die Zahl knapp über 2. Noch immer scheint alles unter Kontrolle. Aber beachten Sie: Nun sind wir an derselben Stelle wie bei der Legende von dem Schachspiel und den Reiskörnern, denn die Zahl verdoppelt sich alle acht Wochen. Ist der R-Wert größer, steigen die Zahlen rascher an, und das Wachstum beschleunigt sich. Ist er kleiner, dauert es länger. Ist R gleich 1, bleibt die Zahl der Infizierten konstant; ist R kleiner als 1, sinkt sie.

Zu Beginn der COVID-19-Pandemie erlaubte die britische Regierung Passagieren aus Ländern, in denen es bereits viele COVID-19-Fälle gab, ohne Gesundheitscheck nach Großbritannien einzufliegen. Das führte offenbar zu mehr als 270 Infektionsquellen, verteilt über ganz Großbritannien. Eine Landkarte hätte 270 winzige Punkte in einer Bevölkerung von 66 Millionen Menschen gezeigt. Das sieht harmlos aus. Eine Zeitrafferkarte dessen, was dann passierte, würde jedoch zeigen, dass jeder kleine Punkt einen weiteren Punkt erzeugte, dann vier, dann acht Punkte … nach zehn Verdopplungen wären es mehr als tausend, dann zweitausend, viertausend … nach zwanzig Verdopplungen hätte jedes ursprünglich infizierte Individuum eine Million Menschen infiziert, insgesamt rund das Vierfache der Einwohnerzahl Großbritanniens.

Ganz so war es nicht: Ich habe mit vereinfachten Zahlen gearbeitet, um das Prinzip zu verdeutlichen. Das Ergebnis war jedoch sehr ähnlich. Zunächst sieht es so aus, als sei alles unter Kontrolle, aber dann geht diese vermeintliche Kontrolle rasch verloren, und das Ganze wächst sich zu einem riesigen Problem aus. In Großbritannien wurden aus diesen einzelnen Punkten kleine Flecken, die immer weiter und immer schneller wuchsen, bis die ganze britische Landkarte mit Millionen Punkten übersät war. Wenn man eine große Krise heraufbeschwören will, sollte man ein paar Hundert Infizierte zufällig über das Land verstreuen und keinen Versuch unternehmen, die Ausbreitung der Infektion zu kontrollieren oder Leute zu testen, um herauszufinden, wer sich angesteckt hat. Eine Weile lang scheint alles in Ordnung zu sein, doch dann beginnt die Krankheit plötzlich, überall zu wüten.

Dieselben Berechnungen illustrieren einen weiteren Schlüsselpunkt. Wenn man anfangs beherzt eingreift, um die Anzahl der Infektionen zu reduzieren, denkt man vielleicht, dies mache kaum einen Unterschied. Statt 270 Infektionsquellen hat man dann, sagen wir, nur noch 90. Aber wenn man mit einem Drittel Infektionsquellen startet, sind auch alle Folgezahlen nur ein Drittel so hoch. Statt einer Million Infizierter hat man nur rund 330000. Wenn man zu Beginn ein paar Wochen gewinnt, spart man dieselbe Anzahl an Wochen am Ende, wenn sich die Infektion explosionsartig ausbreitet. So bleibt mehr Zeit, die Krankheit zu verstehen und effektiv zu kontrollieren.

All das klingt sehr gut, doch wie ich schon bemerkte, bewegen wir uns hier noch auf der Ebene von Berechnungen, von denen einige allzu sehr vereinfachen. Am nächsten Schritt in Richtung eines realistischeren Modells sind Faktoren beteiligt, die die Ausbreitung der Krankheit hemmen, sobald eine größere Anzahl von Personen infiziert ist. So blieben beispielsweise viele Menschen zu Hause und steckten sich daher nicht so leicht mit dem Virus an. Menschen, die sich infiziert haben und genesen sind, verfügen über eine gewisse und, wie sich herausgestellt hat, ganz passable Immunität. Menschen, die sich infiziert haben und nicht genesen sind, sterben, daher können sie sich nicht erneut anstecken oder andere infizieren. Die nächste Ebene des mathematischen Modells, die als logistisches Wachstum bezeichnet wird, berücksichtigt solche Faktoren. Die Anzahl der Infizierten wächst anfangs exponentiell, aber mit zunehmender Infiziertenzahl flacht die Wachstumsrate ab und sinkt schließlich. Die Anzahl der Infektionen nimmt noch eine ganze Weile weiter zu, stabilisiert sich jedoch allmählich auf einem festen Niveau.

Epidemiologen verwenden raffiniertere Versionen logistischer Wachstumsmodelle, die eine realistischere Abbildung der Infektionsausbreitung ermöglichen. Die Standardmodelle werden als Kompartiment-Modelle bezeichnet. Konzeptuell unterteilen diese Modelle die Bevölkerung in «Kompartimente», die mithilfe von Mathematik berücksichtigen, wie viele Personen darin sich in einem bestimmten Gesundheitszustand befinden, und die simulieren, wie sich Personen von einem Kompartiment zum nächsten bewegen. Ein Beispiel ist das SIR-Modell; es hat drei Kompartimente:

S: suszeptible (anfällige/ansteckungsgefährdete) Personen – also solche, die noch nicht erkrankt sind, aber erkranken können, wenn sie mit jemandem aus dem nächsten Kompartiment zusammentreffen.

I: infektiöse/ansteckende Personen – die gegenwärtig erkrankt sind und die Krankheit weitergeben können. Irgendwann bewegen sie sich in ein anderes Kompartiment weiter. R: aus Kompartiment I entfernte (englisch removed) Personen, sei es, dass sie genesen, resistent geworden oder gestorben sind.

Mit jedem Kompartiment ist zu jedem Zeitpunkt eine Zahl verknüpft: wie viele Personen sich «in» diesem Kompartiment befinden. Das Modell verwendet eine Differenzialgleichung, um vorherzusagen, wie sich diese Zahlen in Abhängigkeit von der Zeit verändern. Differenzialgleichungen spezifizieren nicht die Zahlen selbst, sondern geben an, wie rasch sie sich verändern, also im Grunde, wie sich die Krankheit in der Population ausbreitet.

Die Abbildung zeigt typische zeitliche Verläufe für die Zahl der suszeptiblen, infektiösen und aus Kompartiment I «entfernten» resistenten bzw. verstorbenen Personen (R) im SIR-Modell. Die Zahl der anfälligen Personen nimmt ab, wenn sich immer mehr von ihnen anstecken. Die Infektionen steigen an, erreichen einen Gipfel und gehen schließlich wieder zurück. Die Zahl der R-Personen ist anfangs klein, steigt dann recht rasch an und strebt schließlich einem konstanten Maximalwert zu. Der zeitliche Verlauf dieser Veränderungen hängt von der Infektion und ihren Ausbreitungsbedingungen ab.

Die Modelle weisen dieselbe Struktur für alle (geeigneten) Krankheiten auf, beziehen aber auch «Parameter» ein – Zahlenwerte, die für eine bestimmte Krankheit konstant sind, sich aber von einer zur anderen Krankheit unterscheiden. Der R-Wert ist ein solcher Parameter, der uns sagt, wie sich die Infektion von einer Person zur anderen ausbreitet. Andere Schlüsselparameter sind die Inkubationszeit (Zeitspanne zwischen Infektionsbeginn und dem Auftreten erster Symptome) und die Infektionsperiode (Zeitspanne, in der eine infizierte Person ansteckend ist). Und natürlich spielt auch die Todesrate (Mortalität) eine wichtige Rolle.

Es gibt viele standardisierte Epidemiemodelle desselben Typs. So enthält das SEIR-Modell beispielsweise ein zusätzliches Kompartiment E: Personen, die der Krankheit ausgesetzt («exponiert») sind. Eine der frühesten Lockdown-Maßnahmen in vielen Ländern bestand darin, Personen, die sich anstecken können (also suszeptibel sind), aufzufordern, zu Hause zu bleiben. Das hat sofort zur Folge, dass sich das S-Kompartiment in zwei Kompartimente aufspaltet: Personen, die suszeptibel sind, der Krankheit aber nicht ausgesetzt sind, weil sie nicht mit Infizierten in Kontakt kommen, und Personen, die sowohl suszeptibel als auch exponiert sind. Nur Personen im Exponiert-Kompartiment können sich anstecken. Sie können je nach Umständen zwischen S- und E-Kompartiment wechseln, und das Modell stellt Parameter bereit, die die durchschnittliche Bewegung zwischen beiden widerspiegeln.

Wenn man diese und andere, ähnliche Modelle mathematisch analysiert, kommt bei den Berechnungen ein wichtiger Faktor zum Vorschein: Die Rede ist vom Konzept der «Herdenimmunität». Wenn ein genügend großer Teil der Bevölkerung immun ist, sei es durch eine Impfung oder nach Genesung von der Krankheit, dann erlischt die Krankheit, selbst wenn viele Menschen noch nicht immun sind. Der R-Wert kann noch immer über 1 liegen, aber suszeptible Menschen treffen nicht mehr häufig genug auf infektiöse Menschen, damit sich die Krankheit so rasch ausbreiten kann, dass die Gesamtzahl der Infizierten ansteigt. Es wird allgemein angenommen, dass die britische Regierung anfangs eine Strategie verfolgte, die keinen ernsthaften Versuch unternahm, COVID-19 zu kontrollieren, sondern vielmehr hoffte, eine unkontrollierte Ausbreitung werde zu Herdenimmunität führen. Das könnte die Verzögerung bei der Einführung von Restriktionen erklären, obwohl es klare Anzeichen für die Gefährlichkeit der Infektion gab. Leider müssen bei COVID-19 für eine Herdenimmunität jedoch offenbar 90–95 Prozent der Bevölkerung immun sein. Als Modelle ergaben, dass eine Viertelmillion Menschen würde sterben müssen, um die Herdenimmunität ohne Intervention zu erreichen, änderte die Regierung ihre Strategie. Ich sollte anmerken, dass die Regierung selbst leugnet, jemals diese Art Herdenimmunität als Strategie erwogen zu haben. Wenn das tatsächlich der Fall ist, bleibt die anfängliche Untätigkeit allerdings unerklärt.

Ein weiterer Fachausdruck, auf den man häufig stößt, ist das «Abflachen der Kurve». Es lässt sich nur schwer kontrollieren, wie viele Menschen sich letztlich infizieren, denn in irgendeinem Stadium muss sich das Leben mehr oder minder normalisieren. Restaurants müssen wieder öffnen dürfen, die Menschen können nicht länger zu Hause bleiben, Zug- und Flugreisen müssen wieder möglich sein. Anderenfalls würden die wirtschaftlichen Kosten schlimmer sein als die Krankheit und genauso tödlich. Wenn aber zu viele Menschen etwa um die gleiche Zeit erkranken, können Ärzte und Krankenschwestern die Lage nicht meistern. Indem man das Verhalten der Menschen mit Maßnahmen wie Maskenpflicht, Social Distancing und dem Verbot von Großveranstaltungen kontrolliert, lässt sich die Belastung des Gesundheitssystems über einen längeren Zeitraum strecken. Zwar wird etwa die gleiche Anzahl von Personen ins Krankenhaus kommen, aber nicht zur gleichen Zeit. Daher bildet die Anzahl der Infektionen in Abhängigkeit von der Zeit, also die «infektiös»-Kurve in der Abbildung, statt eines ausgeprägten Gipfels einen flacheren Hügel. Wie die Modelle überdies zeigen, gilt: Je früher solche Maßnahmen ergriffen werden – am besten, bevor die Probleme einen kritischen Punkt erreichen –, desto weniger schädlich sind die Auswirkungen in gesundheitlicher wie auch in wirtschaftlicher Hinsicht.

Das SIR-Modell und andere Kompartiment-Modelle wie SEIR basieren auf der Annahme, dass jedes Mitglied der Bevölkerung in derselben Weise betroffen ist. Das Modell mittelt alles über die gesamte Population, sodass individuelle Variationen unter den Tisch fallen und jedermann als uniforme «Durchschnittsperson» behandelt wird. Ein Merkmal von COVID-19 – ein ziemlich verblüffendes, vor allem anfangs – ist jedoch, dass die Infektion für ältere Menschen gefährlicher ist. Eine Zeit lang behaupteten dagegen viele Regierungen kategorisch: «Kinder stecken sich nicht an.» Die meisten Eltern fanden das nicht plausibel: Wenn das stimmte, wäre COVID-19 – abgesehen von Geschlechtskrankheiten – die erste Infektion in der Geschichte der Menschheit, die nicht von Kindern weiterverbreitet würde. Wie aktuellere Untersuchungen zeigten, infizieren sich Kinder genauso oft mit COVID-19 wie Erwachsene, haben dieselbe «Virenlast» (Menge an Viren im Körper) wie Erwachsene und sind auch genauso infektiös wie Erwachsene. Die meisten Kinder entwickeln jedoch keine lebensbedrohlichen Symptome – auch wenn es in einigen Fällen leider vorkommt. Wahrscheinlich hängt dies damit zusammen, wie effektiv das Immunsystem arbeitet und, wie es inzwischen scheint, ob die Infektion das Immunsystem veranlasst, den eigenen Körper anzugreifen, statt ihn zu verteidigen; eine Taktik, die das Virus nutzt. Kinder haben meist ein höchst effektives Immunsystem, ältere Menschen häufig nicht; dies gilt vor allem für ältere Menschen mit schweren Vorerkrankungen wie Herzerkrankungen, vielen Krebsformen, Lungenproblemen und anderen mehr. Tatsächlich könnten solche Probleme der Hauptgrund für schwere Symptome bei älteren Menschen sein, weniger das Alter selbst.

Das Hauptproblem bei der Modellierung von altersabhängigen Effekten oder überhaupt Effekten, die sich von Person zu Person unterscheiden, besteht nicht in der Aufstellung des Modells an sich, sondern darin, genügend verlässliche Daten zu finden, um sie ins Modell einzuspeisen. Kompartiment-Modelle können zusätzliche Kompartimente für unterschiedliche Altersgruppen mit jeweils unterschiedlichen Parametern enthalten. Eine ältere S-Person kann zu einer älteren I- bzw. R-Person werden, und Gleiches gilt für Kinder, wobei es unterschiedliche Parameter für jeden Wechsel zwischen den Gruppen gibt. Ein S-Kind kann jedoch nicht zu einem I- oder R-Erwachsenen werden – nicht im Zeitraum der Infektion, die sich im Verlauf von Wochen statt von Jahren abspielt. Das Modell muss überdies die Tatsache widerspiegeln, dass Erwachsene sich bei Kindern und Kinder sich bei Erwachsenen anstecken können.

Trotz dieser einschränkenden Annahmen können Kompartiment-Modelle oft als nützlicher Leitfaden dienen. Sie haben zudem den Vorteil, dass sie leicht zu berechnen sind. Es gibt raffiniertere Modelle, die auf der Komplexitätswissenschaft basieren und in denen jedes Individuum als separater «Agent» mit eigenem Level an Immunität, Exposition etc. betrachtet wird. Sie zeigen, wie die Ausbreitung der Infektion durch Kontakte zwischen Agenten vorangetrieben wird. Die Agenten und ihre Kontakte lassen sich als Netzwerk darstellen, als eine Ansammlung von Punkten (die als Knoten oder Vertex bezeichnet werden): einer für jede Person, wobei Linien (sogenannte Kanten) Individuen verbinden, die miteinander in Kontakt kommen. Diese Netzwerke können auf statistischen Informationen basieren, zum Beispiel, wie häufig eine bestimmte Person mit einer anderen in Kontakt kommt oder wie viele Kontakte sie im Durchschnitt täglich hat. Sie können sich im Lauf der Zeit verändern. Um die Realität besser widerzuspiegeln, können sie auf «Big Data» fußen, den riesigen Informationsmengen, die sich heutzutage sammeln, speichern und computertechnisch verarbeiten lassen.

Noch besser ist, dass sich all diese Ansätze kombinieren lassen. Kürzlich haben Serina Chang und ihre Mitarbeiter im renommierten Wissenschaftsjournal Nature den Artikel «Mobility network models of COVID-19 explain inequities and inform reopening» veröffentlicht, der genau das beschrieb. Sie kombinierten das SEIR-Modell mit höchst detaillierten Netzwerkmodellen der Infektionsübertragung für verschiedene Treffpunkte und Menschengruppen. Dazu benutzten sie Mobiltelefondaten, um die Bewegungsprofile von 98 Millionen Amerikanern zu verfolgen, und stellten die Daten als Netzwerk dar, das die stündlichen Bewegungen von 56945 Personen zwischen 552758 Treffpunkten kartierte. Sie verwendeten dabei 5,4 Milliarden zeitlich veränderliche Kanten, die im Einstundentakt neu bestimmt wurden. In Kombination mit einem einfachen SEIR-Modell passten die Ergebnisse gut zu den Beobachtungen, obwohl die Bevölkerung ihr Verhalten im Lauf der Zeit veränderte.

Das resultierende Netzwerk sagte voraus, wie sich das Öffnen oder Schließen bestimmter Treffpunkte – Restaurants, Friseursalons, Sportstadien – auswirken würde. Wie das Modell zeigt, ist eine kleine Zahl «Superspreader»-Treffpunkte für einen Großteil aller Infektionen verantwortlich. Demnach sei es zur Infektionskontrolle vermutlich effizienter, die Zahl der Menschen an solchen «Superspreader»-Punkten zu reduzieren, als die Mobilität allgemein einzuschränken. Das Modell sagt korrekt auch höhere Infektionsraten unter Angehörigen benachteiligter ethnischer und sozioökonomischer Gruppen voraus, für die es schwieriger ist, ihre Mobilität einzuschränken, und die stärker bevölkerte Orte besuchen müssen.

Solche Modelle können umfangreiche reale Daten benutzen, um Epidemien und Pandemien wirksam zu bekämpfen, auch wenn wir diese nicht verhindern können. Wir können mögliche Vorgehensweisen in einem Computermodell testen, bevor wir uns für eine Strategie entscheiden. In jüngerer Zeit wurden solche Methoden in Großbritannien eingesetzt, um Ausbrüche der Maul- und Klauenseuche bei Rindern zu kontrollieren. Und weiteres Modellieren im Anschluss hat die verwendete Strategie noch verfeinert.

Die Mathematik kann sogar neue Möglichkeiten zur Ressourcennutzung aufzeigen. In der Anfangsphase der COVID-19-Pandemie kam es zu einem Mangel an Tests, die herausfinden sollten, wer sich infiziert hatte. Wenn das Infektionsniveau niedrig ist, besteht eine Möglichkeit, Tests besser zu nutzen, indem man eine recht große Anzahl von Personen – sagen wir 100 – einem «Pooltest» (auch Batchtest) unterzieht, welcher ihre Proben zu einem Sammeltest zusammenführt. Ein einziger Test des gesamten Pools kann dann zeigen, dass niemand infiziert ist, oder er kann zeigen, dass jemand infiziert ist, ohne aber zu wissen, wer es ist. Die schlichte Vorgehensweise ist dann, jeden Teilnehmer einzeln zu testen. Bei dieser Methodik verbraucht man einen zusätzlichen Test, wenn der Pool positiv ist, spart aber 99, wenn er negativ ausfällt – was gewöhnlich zutrifft, solange das Infektionsniveau niedrig ist – wie zu Anfang einer Pandemie, wenn zudem Testmaterialien knapp sind.

Raffiniertere Methoden zur Sammelanalyse von Proben können die Zahl der Tests optimieren, die zur Identifikation von Infizierten erforderlich ist. Ein einfaches Schema dieser Art besteht darin, die 100 Personen auf ein 10 × 10-Gitter zu verteilen und dann jeweils Proben von Personen aus derselben Reihe und von Personen aus derselben Spalte zu kombinieren. Diese 20 Proben werden getestet. Ist niemand infiziert, sind alle Tests negativ. Wenn genau eine Person infiziert ist, sind genau zwei Tests positiv, nämlich die für die Reihe und die Spalte der betreffenden Person. Das offenbart dann sofort, welche Person infiziert ist. Sind zwei Personen infiziert, identifizieren Reihe und Spalte maximal vier Personen, die dann separat getestet werden können. Mathematiker untersuchen «Blockdesigns» dieses Typs seit Jahrzehnten.

Wird die Infektionsrate zu hoch, bringt es nichts mehr, Proben auf diese Art zu kombinieren, doch solange die Inzidenz recht niedrig ist, lassen sich auf diese Weise viele unnötige Tests einsparen. Sie ist daher im Frühstadium einer Pandemie am nützlichsten. Methoden dieser Art verlangen jedoch eine spezielle Ausrüstung, um Proben auf die richtige Weise zu mischen; daher muss alles im Vorhinein vorbereitet werden, insbesondere, wenn komplexe Blockdesigns zum Einsatz kommen.

In Zukunft können wir eine verstärkte Nutzung von künstlicher Intelligenz und maschinellem Lernen ins Auge fassen. Beispielsweise kann man einem Computer beibringen, Muster zu erkennen und Modelle zu konstruieren, die die Ausbreitung einer Infektion vorhersagen und die in Echtzeit auf den neuesten Stand gebracht werden können, sobald Informationen über die Infektion vorliegen.

All diese Methoden basieren auf mathematischen Strukturen und Prozessen, doch sie erfordern eine Vielzahl von Berechnungen. Daher wurden sie erst einsetzbar, als wirklich leistungsstarke Computer aufkamen. Die Fortschritte auf diesem Gebiet sind beeindruckend: Computerübersetzungen, Bilderkennung wie die von Gesichtern, Schach- und Go-Spielen, Ableitung der dreidimensionalen Struktur von Proteinen aus der in der DNA codierten Aminosäuresequenz.

Wenn Computer in dieser Weise eingesetzt werden, können indessen viele praktische und ethische Probleme auftreten. Hat eine Maschine erst einmal «gelernt», eine bestimmte Aufgabe auszuführen, ist es sehr schwer, genau zu verstehen, was der Computer eigentlich macht. Gesichtserkennungssysteme können zur Aufklärung oder Verhinderung von Verbrechen verwendet werden, doch sie können auch Menschenrechte verletzen. Es ist also unsere Aufgabe zu kontrollieren, wie solche Methoden eingesetzt werden. Doch sie können sehr effizient sein, wenn wir sie in akzeptabler Weise gebrauchen.

Noch vor wenigen Jahrzehnten existierten viele dieser Methoden zur Bekämpfung einer Pandemie nicht. Sie sind keineswegs perfekt, doch sie ergänzen andere Methoden. Überdies liefern sie einigermaßen objektive Maßstäbe für Erfolg oder Misserfolg einer Maßnahme – was nicht alle Regierungen begrüßen. Der menschliche Faktor bringt Ungewissheiten ins Spiel, die schwieriger zu quantifizieren sind. Unsere Fähigkeit, Impfstoffe zu entwickeln und herzustellen, hat spektakulär zugenommen, sogar noch während der Pandemie. Jedoch haben einige Nationen weitaus mehr Vakzin zur Verfügung als andere, entweder weil letztere nicht über ausreichende finanzielle Mittel verfügen oder weil die Regierungen zu langsam reagiert haben. Die Impfbereitschaft spielt ebenfalls eine Rolle und hängt unter anderem davon ab, wie viele Menschen auf «Querdenker»-Desinformationen hereinfallen, ein tragischer Nebeneffekt eines anderen technologischen Fortschritts, des Internets. Aber selbst diese Eigenarten, die in der Natur des Menschen gründen, lassen sich bis zu einem gewissen Grad mathematisch analysieren, beispielsweise mithilfe von Big Data und Wahrscheinlichkeitstheorie.

Vor wenigen Jahrhunderten galten Seuchen und Pandemien als zufällige Naturereignisse und wurden häufig einer Gottheit zugeschrieben, die die Menschheit für angebliche Sünden strafte. Mit wachsendem medizinischem Wissen begannen wir allmählich zu verstehen, dass sie rational nachvollziehbare Gründe hatten. In diesem Stadium waren die wichtigsten Methoden zur Vorhersage wahrscheinlicher Auswirkungen statistischer Natur, doch inzwischen verfügen wir darüber hinaus über eine Vielzahl dynamischer und rechnerischer Instrumente. Ungewissheit wird unser Leben noch immer durcheinanderbringen, doch jahrhundertelange wissenschaftliche Forschung auf verschiedenen Gebieten – und die Mathematik spielt dabei eine wichtige Rolle – hat uns die Werkzeuge an die Hand gegeben, viele der schlimmsten Auswirkungen abzumildern. Bessere Instrumente zu entwickeln, ist natürlich eine große Aufgabe, ein Problem, an dem Wissenschaftlerinnen und Wissenschaftler seit Jahrzehnten arbeiten und weiter arbeiten werden. Das größte Problem, dem wir uns gegenübersehen, ist jedoch, Regierungen davon zu überzeugen, die Instrumente, über die wir bereits verfügen, klug einzusetzen. Wir müssen unser Verhalten ändern, um zu vermeiden, dass wir uns letztlich selbst verschuldeten Krisen aussetzen. Es braucht keine Götter, uns für unsere Sünden zu strafen – die Natur schafft das ganz allein.

 

Ian Stewart

Coventry, Großbritannien, im Herbst 2021

Kapitel 1Die sechs Zeitalter der Ungewissheit

Ungewiss: Der Zustand, nicht genau bekannt oder völlig klar zu sein; Zustand der Zweifelhaftigkeit oder Unklarheit.

The Oxford English Dictionary

Ungewissheit ist nicht immer eine schlechte Sache. Wir mögen Überraschungen, solange sie angenehm sind. Vielen von uns macht es Spaß, auf Pferde zu wetten, und die meisten Sportarten wären langweilig, wenn wir von vorneherein wüssten, wer gewinnt. Manche werdende Eltern legen Wert darauf, das Geschlecht ihres Kindes vor der Geburt nicht zu kennen. Und die meisten Menschen, vermute ich, ziehen es vor, nicht im Voraus zu wissen, wann sie sterben werden, geschweige denn, wie sie zu Tode kommen werden. Aber solche Gewissheiten sind Ausnahmen. Das Leben ist eine Lotterie. Ungewissheit führt oft zu Zweifeln, und Zweifel vermitteln ein ungutes Gefühl; daher bemühen wir uns, Ungewissheit zu vermindern oder, besser noch, zu eliminieren. Wir machen uns Sorgen, was die Zukunft bringt. Wir sehen uns den Wetterbericht an, obwohl wir wissen, dass das Wetter notorisch unvorhersehbar ist und die Prognosen oft danebenliegen.

Auch wenn wir Nachrichten schauen, Zeitung lesen oder im Web surfen, ist das Ausmaß unserer Unwissenheit hinsichtlich dessen, was passieren wird, oft riesengroß. Flugzeugabstürze geschehen aufs Geratewohl. Erdbeben und Vulkanausbrüche verwüsten ganze Gemeinden oder sogar große Teile von Städten. Der Finanzsektor boomt und stürzt dann wieder ab, und obwohl wir von «Boom-Bust-Zyklen» sprechen, meinen wir damit nicht mehr, als dass auf ein Hoch (Boom/Hausse) ein Tief (Bust/Baisse) und auf einen Bust ein Boom folgt. Genauso gut könnten wir von einem «Sonnenschein-Regen-Zyklus» sprechen und behaupten, damit das Wetter vorherzusagen. Wenn Wahlen bevorstehen, verfolgen wir die Meinungsumfragen und hoffen, ein gewisses Gespür dafür zu bekommen, wer wohl die Nase vorne hat. In den letzten Jahren hat es den Anschein, als seien die Meinungsumfragen weniger zuverlässig geworden, doch sie sind noch immer in der Lage, uns zu beruhigen oder aufzuregen.

Manchmal sind wir nicht einfach unsicher, sondern sind uns nicht sicher, über was wir unsicher sein sollten. Die meisten Menschen sorgen sich um den Klimawandel, doch eine lautstarke Minderheit beharrt darauf, all das sei nur eine Verschwörung – in die Welt gesetzt von Wissenschaftlern (die gar nicht in der Lage wären, eine Verschwörung zu organisieren, selbst wenn es um ihr Leben ginge) oder von den Chinesen oder den Marsianern … wählen Sie die Verschwörungstheorie, die Ihnen am besten gefällt. Doch selbst die Klimatologen, die die Klimaänderung vorausgesagt haben, bieten uns nur wenig Gewissheit über deren präzise Auswirkungen. Sie haben jedoch durchaus eine recht klare Vorstellung von der allgemeinen Natur des Phänomens, und in praktischer Hinsicht ist das mehr als genug, um die Alarmglocken zum Schrillen zu bringen.

Wir sind uns nicht nur unsicher, welche Probleme Mutter Natur für uns bereithält, wir sind uns nicht einmal allzu sicher, welche Probleme wir uns selbst bereiten. Die Weltwirtschaft hat sich immer noch nicht gänzlich von der Finanzkrise des Jahres 2008 erholt; unterdessen führen die Leute, die sie ausgelöst haben, ihre Geschäfte weitgehend so weiter, als sei nichts geschehen, was irgendwann wahrscheinlich in einer noch größeren Finanzkatastrophe enden wird. Wir haben so gut wie keine Ahnung, wie man globale Finanzentwicklungen vorhersagen könnte.

Nach einer Periode relativer (und historisch ungewöhnlicher) Stabilität wird die Weltpolitik zunehmend fragmentarischer, und alte Sicherheiten werden erschüttert. «Fake News» unterdrücken echte Fakten und ertränken sie in einer Flut von Desinformation. Wie vorhersehbar, sind diejenigen, die sich am lautesten darüber beklagen, oft auch diejenigen, die für diese Fälschungen verantwortlich sind. Das Internet hat, statt Wissen zu demokratisieren, Ignoranz und Scheinheiligkeit demokratisiert. Das Entfernen der Torhüter hat dazu geführt, dass die Tore nun aus ihren Angeln gehoben sind.

Menschliches Handeln war schon immer eine verworrene Angelegenheit, doch selbst in den Naturwissenschaften ist die alte Vorstellung, dass die Natur exakten Gesetzen gehorcht, einer flexibleren Sichtweise gewichen. Wir können Regeln und Modelle finden, die näherungsweise wahr sind (auf manchen Gebieten heißt dieses «näherungsweise» «auf zehn Dezimalstellen genau», auf anderen hingegen «zwischen zehn Mal größer und zehn Mal kleiner»), doch bleiben sie immer vorläufig, bis sie aufgrund neuer Erkenntnisse ersetzt werden. Die Chaostheorie sagt uns, dass etwas selbst dann, wenn es tatsächlich strikten Regeln folgt, unvorhersagbar sein kann. Die Quantentheorie sagt uns, dass das Universum ganz tief unten, auf dem kleinsten Level, prinzipiell unvorhersagbar ist. Ungewissheit ist nicht nur ein Zeichen menschlicher Unwissenheit; es ist der Stoff, aus dem die Welt gemacht ist.

 

Wir könnten, was die Zukunft angeht, einfach fatalistisch sein, wie es viele Menschen sind. Die meisten von uns fühlen sich mit dieser Lebenseinstellung jedoch nicht wohl. Wir befürchten, sie könne zu einer Katastrophe führen, und wir haben das schleichende Gefühl, mit ein wenig Vorausschau ließe sich ein Desaster abwenden. Angesichts einer Situation, in der wir uns unwohl fühlen, besteht eine verbreitete menschliche Taktik darin, uns davor zu schützen, oder zu versuchen, diese Situation zu ändern. Aber welche Vorsichtsmaßnahmen sollten wir ergreifen, wenn wir nicht wissen, was passieren wird? Nach der Titanic-Katastrophe wurden Passagierschiffe verpflichtet, zusätzliche Rettungsboote an Bord zu nehmen. Dieses Gewicht führte 1915 dazu, dass die S. S. Eastland auf dem Lake Michigan kenterte und rund 850 Menschen in den Tod riss. Das Gesetz unbeabsichtigter Folgen kann die besten Absichten zunichtemachen.

Wir machen uns Sorgen um die Zukunft, weil wir zeitlich gebunden sind. Wir haben einen starken Sinn für unsere Position in der Zeit, wir sehen zukünftige Ereignisse voraus, und diese Erwartungen veranlassen uns zum Handeln. Wir haben keine Zeitmaschinen, aber wir verhalten uns oft so, als wäre das der Fall, sodass ein zukünftiges Ereignis uns dazu bringt zu handeln, bevor es eintritt. Natürlich ist der wahre Grund für das, was wir heute tun, nicht die Hochzeit oder das Gewitter oder die Miete, die morgen fällig wird. Es ist unser aktueller Glaube an das Eintreten dieses Ereignisses. Unser Gehirn, geformt von der Evolution und unseren persönlichen Erfahrungen, lässt uns heute so handeln, dass unser Leben morgen leichter wird. Gehirne sind Maschinen, die Vermutungen über die Zukunft anstellen und auf dieser Grundlage Entscheidungen treffen.

Das Gehirn trifft manche Entscheidungen den Bruchteil einer Sekunde bevor sie uns bewusst werden. Wenn ein Kricket- oder Baseballspieler den Ball fängt, gibt es eine kleine, aber definitive Zeitverzögerung zwischen dem visuellen System, das den Ball wahrnimmt, und dem Gehirn, das ausrechnet, wo er sich befindet. Bemerkenswerterweise gelingt es den Spielern in der Regel, den Ball zu fangen, denn ihr Gehirn ist ziemlich gut darin, dessen Flugbahn vorauszuberechnen, doch wenn sie einen offenbar einfachen Ball verfehlen, lagen sie entweder mit ihrer Vorhersage oder mit ihrer Reaktion daneben. Der ganze Prozess läuft unbewusst und offenbar nahtlos ab; daher bemerken wir nicht, dass wir unser ganzes Leben in einer Welt verbringen, die uns erst den Bruchteil einer Sekunde später bewusst wird.

Andere Entscheidungen werden vielleicht Tage, Wochen, Monate, Jahre oder gar Jahrzehnte im Voraus getroffen. Wir stehen rechtzeitig auf, um mit dem Bus oder dem Zug zur Arbeit zu fahren. Wir kaufen Lebensmittel für den nächsten Tag oder die nächste Woche ein. Wir planen einen Familienausflug für die kommenden Feiertage, und jedermann tut jetzt Dinge, um sich auf dann vorzubereiten. Reiche Eltern in Großbritannien melden ihre Kinder schon vor deren Geburt in den angesagten Schulen an. Noch reichere Eltern pflanzen Bäume, die erst in Jahrhunderten ihre volle Größe erreichen werden, sodass ihre Ururur-Enkel den eindrucksvollen Anblick genießen können.

Wie gelingt es dem Gehirn, die Zukunft vorauszusagen? Es baut vereinfachte interne Modelle, die ihm sagen, wie die Welt funktioniert oder funktionieren könnte oder mutmaßlich funktioniert. Es speist das Modell mit den Daten, die ihm bekannt sind, und schaut sich das Ergebnis an. Wenn wir einen losen Teppichläufer sehen, sagt uns eines dieser Modelle, dass dies gefährlich sein könnte, da jemand darüber stolpern und die Treppe herunterfallen könnte. Wir beugen dem vor, indem wir den Läufer wieder richtig befestigen. Dabei spielt es kaum eine Rolle, ob diese bestimmte Vorhersage richtig ist. Tatsächlich kann sie nicht richtig sein, wenn wir den Läufer korrekt befestigt haben, da die Rahmenbedingungen, die wir in das Modell eingespeist haben, nicht länger zutreffen. Die Evolution oder persönliche Erfahrung kann das Modell testen und verbessern, indem sie sich anschaut, was in ähnlichen Fällen passiert, wenn nicht vorsorglich gehandelt wird.

Solche Modelle müssen die Art und Weise, wie die Welt funktioniert, nicht präzise beschreiben. Vielmehr laufen sie auf Überzeugungen darüber hinaus, wie die Welt funktioniert. Und so hat sich das menschliche Gehirn im Verlauf von vielen Jahrzehntausenden zu einer Maschine entwickelt, die Entscheidungen aufgrund ihrer Überzeugungen trifft, wohin diese Entscheidungen führen werden. Zu den ersten Strategien, die uns halfen, mit Ungewissheit umzugehen, gehörte daher ganz folgerichtig der Aufbau von Glaubenssystemen, denen zufolge übernatürliche Wesen die Natur kontrollierten. Wir wussten, dass nicht wir es waren, die die Kontrolle hatten, doch die Natur überraschte uns ständig und häufig auf unangenehme Weise; daher erschien die Annahme vernünftig, dass irgendwelche nicht-menschlichen Wesen – Geister und Gespenster, Götter und Göttinnen – die Zügel in der Hand hielten. Bald kristallisierte sich eine spezielle Kaste von Leuten heraus, die behaupteten, sie könnten mit den Göttern in Kontakt treten, um uns Sterblichen zu helfen, unsere Ziele zu erreichen. Menschen, die die Zukunft vorhersagen konnten –  Propheten, Seher, Wahrsager, Orakelpriesterinnen –, wurden zu besonders geschätzten Mitgliedern der Gemeinschaft.

Dies war das erste Zeitalter der Ungewissheit. Wir entwickelten Glaubenssysteme, die immer komplexer wurden, denn jede Generation legte es darauf an, sie noch eindrucksvoller zu gestalten. Wir erklärten die Unberechenbarkeit der Natur als göttlichen Willen.

 

Das erste Stadium der bewussten menschlichen Auseinandersetzung mit dem Ungewissen zog sich über mehrere Jahrtausende. Es stimmte mit den verfügbaren Belegen überein, denn der Wille der Götter konnte alles, was geschah, glaubhaft erklären. Wenn die Götter zufrieden waren, geschahen gute Dinge; waren sie erzürnt, geschahen schlechte Dinge. Als Beweis galt: Wenn dir Gutes widerfuhr, dann erfreute dein Handeln die Götter offenbar, wenn dir Übles widerfuhr, war es dein eigener Fehler, weil du sie verärgert hattest. Daher kam es im Lauf der Zeit zu einer Verflechtung zwischen dem Glauben an die Götter und moralischen Geboten.

Schließlich begann einer wachsenden Zahl von Menschen zu dämmern, dass Glaubenssysteme mit einer derartigen Flexibilität tatsächlich gar nichts erklärten. Wenn der Himmel nur deshalb blau ist, weil die Götter es so entschieden haben, könnte er auch pink oder purpurfarben sein. Die Menschheit begann, beim Ergründen der Welt eine andere Strategie zu verfolgen, eine Strategie, die auf logischen Schlussfolgerungen basiert und von Beobachtungen gestützt (oder widerlegt) wurde.

Damit begann die Ära der Naturwissenschaften. Sie erklärten die Bläue des Himmels mit der Streuung des Lichts an winzigen Staubteilchen in der oberen Atmosphäre. Das erklärt jedoch nicht, warum uns der Himmel blau erscheint; das ist ein Thema für Neurowissenschaftler, doch die Wissenschaft hat niemals behauptet, alles zu verstehen. Im Lauf der Zeit erzielte die Wissenschaft immer weitere Erfolge, nicht ohne unterwegs einige schauderhafte Fehler zu begehen, und eröffnete uns nach und nach die Möglichkeit, einige Aspekte der Natur zu kontrollieren. Die Entdeckung der engen Beziehung zwischen Elektrizität und Magnetismus im 19. Jahrhundert war eines der ersten wirklich revolutionären Beispiele für Wissenschaft, die in Technik umgesetzt wurde und das Leben fast aller Menschen beeinflusste.

Die Naturwissenschaften zeigten uns, dass die Natur weniger ungewiss sein kann, als wir denken. Die Planeten gehorchen bei ihrem Lauf am Firmament nicht der Laune der Götter: Sie folgen –  abgesehen von winzigen Störungen aufgrund der aufeinander ausgeübten Kräfte – regelmäßigen elliptischen Bahnen. Wir können berechnen, welche Ellipse passt, können den Effekt dieser winzigen Störungen verstehen, und können vorhersagen, wo sich ein Planet in einigen Jahrhunderten befinden wird. Tatsächlich können wir seine Position inzwischen Millionen Jahre vorherberechnen, wobei uns nur die chaotische Dynamik Grenzen setzt. Es gibt Naturgesetze; und wir können sie entdecken und mit ihrer Hilfe vorhersagen, was passieren wird. Das unangenehme Gefühl der Ungewissheit wich der Überzeugung, die meisten Dinge ließen sich erklären, wenn wir nur die ihnen zugrunde liegenden Gesetze verstünden. Philosophen begannen sich zu fragen, ob das gesamte Universum vielleicht nichts anderes sei als das Abarbeiten dieser Gesetze über Äonen von Jahren. Vielleicht ist der freie Wille eine Illusion, und alles ist nichts weiter als ein riesiges Uhrwerk.

Vielleicht ist Ungewissheit lediglich zeitweiliges Nichtwissen. Mit genügend Mühe und Nachdenken kann alles kristallklar werden. Das war das zweite Zeitalter der Ungewissheit.

 

Die Naturwissenschaften zwangen uns zudem, effiziente Möglichkeiten der Quantifizierung von Ungewissheiten zu finden: die Wahrscheinlichkeit. Das Studium der Ungewissheit wurde zu einem neuen Zweig der Mathematik, und der Schwerpunkt dieses Buches besteht darin, die verschiedenen Arten und Weisen zu untersuchen, wie wir Mathematik eingesetzt haben, um unsere Welt weniger ungewiss zu machen. Dazu haben auch viele andere Gebiete beigetragen, beispielsweise Politik, Ethik und Kunst, aber ich werde mich auf die Rolle der Mathematik beschränken.

Die Wahrscheinlichkeitstheorie erwuchs aus den Bedürfnissen zweier sehr verschiedener Menschengruppen: Glücksspieler und Astronomen. Glücksspieler wollten ihre Gewinnchancen besser in den Griff bekommen, Astronomen hatten den Wunsch, mit unvollkommenen Teleskopen präzise Beobachtungen durchzuführen. Sobald die wahrscheinlichkeitstheoretischen Vorstellungen einmal im menschlichen Bewusstsein Fuß gefasst hatten, sprengten sie die ursprünglichen Grenzen des Gebiets und wurden nicht nur auf Würfelspiele und die Bahnen der Asteroiden, sondern auch auf fundamentale physikalische Prinzipien angewandt. Alle paar Sekunden atmen wir Sauerstoff und andere Gase ein. Die Moleküle, die in riesiger Anzahl die Atmosphäre bilden, schießen hin und her und prallen gegeneinander wie Billardbälle. Wenn sie sich alle in einer Ecke des Raumes ansammelten, während wir uns in der entgegengesetzten Ecke befinden, gerieten wir in ernste Schwierigkeiten. Im Prinzip wäre so etwas denkbar, doch die Gesetze der Wahrscheinlichkeit besagen implizit, dass ein solcher Vorgang so selten ist, dass er in der Praxis nie stattfinden wird. Die Luft bleibt gleichmäßig durchmischt, und zwar aufgrund des Zweiten Hauptsatzes der Thermodynamik, dessen Aussage oft so interpretiert wird, dass die Unordnung im Universum ständig wächst. Dieser Zweite Hauptsatz steht zudem in einer ziemlich paradoxen Beziehung zur Richtung des Zeitpfeils. Das sind tiefgründige Zusammenhänge.

Die Thermodynamik betritt die wissenschaftliche Bühne erst relativ spät. Als sie aufkam, hatte die Wahrscheinlichkeitstheorie bereits soziologische Sphären erreicht. Geburten, Todesfälle, Ehescheidungen, Selbstmorde, Verbrechen, Körpergröße, Gewicht, Politik. Der angewandte Zweig der Wahrscheinlichkeitstheorie, die Statistik, war geboren. Sie gab uns mächtige Werkzeuge an die Hand, um alles Mögliche zu analysieren, von Masernepidemien bis zu der Frage, für wen die Wähler bei der nächsten Wahl stimmen werden. Sie warf zudem ein wenig Licht auf die undurchsichtige Welt der Finanzen, wenn auch nicht so viel, wie wir uns wünschen würden. Und sie machte uns klar, dass wir Geschöpfe sind, die auf einem Meer von Wahrscheinlichkeiten treiben. Die Wahrscheinlichkeitstheorie und ihr angewandter Zweig, die Statistik, dominierten das dritte Zeitalter der Ungewissheit.

 

Das vierte Zeitalter der Ungewissheit brach zu Beginn des 20. Jahrhunderts mit einem Paukenschlag an. Bis zu diesem Zeitpunkt wiesen alle Formen der Ungewissheit, denen wir begegnet waren, ein gemeinsames Merkmal auf: Ungewissheit spiegelt menschliche Unwissenheit wider. Wenn wir wegen etwas im Ungewissen waren, dann deshalb, weil wir nicht über die Informationen verfügten, um sie vorauszusagen. Denken Sie nur an das Werfen einer Münze, eines der Paradebeispiele für ein Zufallsereignis. Eine Münze ist jedoch ein sehr einfacher Mechanismus, mechanische Systeme sind deterministisch, und im Prinzip ist jeder deterministische Prozess vorhersagbar. Wenn wir alle Kräfte kennten, die auf eine Münze wirken, und damit Richtung und Drehachse, Anfangsgeschwindigkeit und Drehgeschwindigkeit des Wurfs, könnten wir die Gesetze der Mechanik anwenden, um zu berechnen, auf welcher Seite sie landet.

Neue Entdeckungen in der Grundlagenphysik zwangen uns, diese Sichtweise zu revidieren. Die Sache mag für Münzwürfe stimmen, doch manchmal ist die Information, die wir bräuchten, einfach nicht verfügbar, weil selbst die Natur sie nicht kennt. Um 1900 begannen Physiker den Aufbau der Materie auf der Ebene der kleinsten Bausteine zu verstehen – nicht nur auf der Ebene der Atome, sondern der subatomaren Teilchen, aus denen sich Atome zusammensetzen. Die klassische Physik, die aus Isaac Newtons Durchbrüchen bei den Bewegungs- und Gravitationsgesetzen erwuchs, hatte der Menschheit ein breites Verständnis der physikalischen Welt verschafft, das durch Messungen mit ständig wachsender Präzision getestet worden war. Aus all diesen Theorien und Experimenten kristallisierten sich zwei unterschiedliche Weisen heraus, die Welt zu beschreiben: einerseits mit Hilfe von Wellen, andererseits mit Hilfe von Teilchen.

Ein Teilchen ist ein winziger Materieklumpen, der genau definiert und lokalisiert ist. Eine Welle ist Kräuselungen auf dem Wasser vergleichbar, eine sich fortbewegende Störung, die vergänglicher ist als ein Teilchen und sich über einen größeren Raumbereich erstreckt. Man kann Planetenumlaufbahnen berechnen, indem man annimmt, der Planet sei ein Teilchen, weil die Entfernungen zwischen Planeten und Sternen so gigantisch sind, dass Planeten tatsächlich nur mehr eine punktförmige Masse darstellen, wenn man alles maßstäblich auf menschliche Größe verkleinert. Schall ist eine sich fortbewegende Störung in der Luft, obgleich die Luftteilchen weitgehend an Ort und Stelle bleiben; daher handelt es sich um eine Welle. Teilchen und Wellen sind Standardbegriffe der klassischen Physik, und sie unterscheiden sich deutlich.

Im Jahr 1678 entflammte eine heftige Diskussion über die Natur des Lichts. Christiaan Huygens vertrat vor der Pariser Akademie der Wissenschaften seine Theorie, Licht lasse sich als Welle darstellen. Newton war hingegen davon überzeugt, Licht sei ein Teilchenstrahl, und seine Sichtweise setzte sich zunächst durch. Schließlich, nachdem die Physiker hundert Jahre auf dem Holzweg waren, klärten neue Experimente die Streitfrage. Newton lag falsch, und Licht ist eine Welle.

Um 1900 entdeckten Physiker den fotoelektrischen Effekt: Licht, das auf gewisse Typen von Metall trifft, kann einen kleinen elektrischen Strom hervorrufen. Albert Einstein schloss daraus, dass Licht ein Strom winziger Teilchen – Photonen – ist. Newtons Theorie war jedoch aus einem guten Grund verworfen worden: Eine Vielzahl von Experimenten zeigte eindeutig, dass Licht eine Welle, ist. Die alte Debatte flammte erneut auf: Ist Licht nun eine Welle oder besteht es aus Teilchen? Letztlich lautete die salomonische Antwort «beides». Manchmal verhält sich Licht wie ein Teilchen, manchmal wie eine Welle. Welches Verhalten es zeigt, ist abhängig vom Experiment. Das ist alles ziemlich mysteriös.

Einige Pioniere begannen rasch, einen Ausweg aus diesem Dilemma zu erkennen, und das war die Geburtsstunde der Quantenmechanik. Wie sich herausstellte, galten all die klassischen Gewissheiten, wie Ort und Geschwindigkeit eines Teilchens, bei subatomarer Materie nicht mehr. Die Quantenwelt steckt voller Ungewissheit. Je genauer man die Position eines Teilchens misst, desto weniger genau lässt sich seine Geschwindigkeit bestimmen. Schlimmer noch, auf die Frage «Wo ist es?» gibt es keine klare Antwort. Man kann allenfalls die Wahrscheinlichkeit beschreiben, mit der es sich an einem bestimmten Ort befindet. Ein Quantenteilchen ist überhaupt kein Teilchen im klassischen Sinn, sondern nicht mehr als eine verschwommene Wahrscheinlichkeitswolke.

Je tiefer die Physiker in die Quantenwelt eindrangen, desto unschärfer wurde alles. Sie konnten diese Welt mathematisch beschreiben, doch diese Mathematik war höchst seltsam. Innerhalb weniger Jahrzehnte gelangten sie zu der Überzeugung, Quantenphänomene seien tatsächlich rein zufällig. Die Quantenwelt besteht in der Tat aus Ungewissheit; es gibt keine fehlende Information und auch keine tiefere, grundsätzlichere Ebene der Beschreibung. «Halt den Mund und rechne!», hieß die Parole – stell keine heiklen Fragen danach, was das alles zu bedeuten hat.

 

Während die Physik die Quantenroute nahm, schlug die Mathematik ihren eigenen neuen Weg ein. Früher nahm man an, das Gegenteil eines Zufallsprozesses sei ein deterministischer Prozess: Bei vorgegebener Gegenwart ist nur eine einzige Zukunft möglich. Das fünfte Zeitalter der Ungewissheit brach an, als Mathematiker und einige Naturwissenschaftler erkannten, dass ein deterministisches System unvorhersagbar sein kann. Das besagt die Chaostheorie, der umgangssprachliche Begriff für nichtlineare dynamische Systeme. Die Entwicklung der Quantentheorie wäre vielleicht ganz anders verlaufen, wenn Mathematiker diese entscheidende Entdeckung deutlich früher gemacht hätten, als es der Fall war. Tatsächlich wurde ein Beispiel für Chaos vor der Formulierung der Quantentheorie entdeckt, doch man hielt es für eine isolierte Kuriosität. Eine kohärente Chaostheorie wurde erst im Lauf der 1960er und 1970er Jahre entwickelt. Dennoch behandele ich die Chaostheorie aus Gründen der besseren Verständlichkeit vor der Quantentheorie.

«Prognosen sind schwierig, besonders, wenn sie die Zukunft betreffen», meinte der Physiker Niels Bohr (oder war es doch der Schriftsteller Mark Twain?). Offensichtlich können wir uns nicht einmal dessen sicher sein.[1] Das ist nicht so selbstverständlich, wie es klingt, denn zu prognostizieren, ob ein Ereignis eintreten wird, ist etwas anderes, als vorherzusagen, wann es eintreten wird. Ich kann prognostizieren, dass es zu einem Erdbeben kommt, weil sich in der Erdkruste Spannungen aufbauen, und diese Prognose lässt sich testen, indem man diese Spannungen misst. Aber das ist keine Methode, mit der sich ein Erdbeben vorhersagen lässt, denn das erfordert, im Voraus zu ermitteln, wann dieses Ereignis eintritt. Man kann sogar «prognostizieren», dass irgendein Ereignis in der Vergangenheit tatsächlich stattgefunden hat; das ist ein durchaus legitimer Test für eine Theorie, falls es niemandem vor nochmaliger genauer Durchsicht älterer Daten aufgefallen war. Ich weiß, dass so etwas gern als «Nachhersage» bezeichnet wird, aber was das Testen einer wissenschaftlichen Hypothese angeht, ist es dasselbe. Im Jahr 1980 sagten Luiz und Walter Alvarez voraus, dass vor 65 Millionen Jahren ein Asteroid die Erde getroffen und die Ära der Dinosaurier beendet habe. Das war eine echte Nachhersage, denn nachdem sie diese Vermutung aufgestellt hatten, konnten sie in den geologischen und fossilen Daten nach Belegen für oder gegen ihre These suchen.

Wie Untersuchungen auf den Galapagos-Inseln über Jahrzehnte gezeigt haben, ist der Fortpflanzungserfolg verschiedener Arten von Darwinfinken mit unterschiedlichen Schnabelgrößen völlig vorhersagbar – vorausgesetzt, man kennt die durchschnittliche jährliche Niederschlagsmenge. Der Fortpflanzungserfolg verändert sich je nachdem, wie feucht oder trocken die Jahre sind. In trockenen Jahren sind die Samen härter, daher finden Finkenarten mit größeren Schnäbeln mehr Nahrung und sind fitter; in feuchten Jahren ist es umgekehrt. Hier ist der Fortpflanzungserfolg in Abhängigkeit von der Schnabelgröße der Elternvögel bedingt vorhersehbar.

Es ist nicht ungewöhnlich, dass manche Merkmale eines Systems vorhersehbar sind, andere hingegen nicht. Mein Lieblingsbeispiel stammt aus der Astronomie. Im Jahr 2004 warnten Astronomen, dass ein obskurer Asteroid namens (99942) Apophis am 13. April 2029 mit der Erde zusammenstoßen könne, oder dass sich, wenn er sie in genau der richtigen Weise verfehlen sollte, am 13. April 2036 eine zweite Gelegenheit böte. Ein Journalist fragte daraufhin (um fair zu sein, es handelte sich um eine humoristische Kolumne): Wieso können sich die Astronomen so sicher sein, was den Tag angeht, wenn sie das Jahr nicht kennen?

Halten Sie einen Augenblick mit dem Lesen inne und denken Sie über diese Frage nach. Hilfestellung: Wie ist ein Jahr definiert?

Die Sache ist ganz einfach. Kollisionen sind immer dann möglich, wenn sich die Umlaufbahn des Asteroiden mit derjenigen der Erde überschneidet oder beinahe überschneidet. Diese Umlaufbahnen verändern sich im Lauf der Zeit ein wenig und beeinflussen dadurch, wie nahe sich die beiden Körper kommen. Wenn wir nicht genug Beobachtungsdaten haben, um den Orbit des Asteroiden hinreichend genau zu bestimmen, können wir nicht sicher sein, wie nahe er der Erde kommen wird. Die Astronomen besaßen genug orbitale Daten, um die meisten Jahre in den kommenden Jahrzehnten auszuschließen, jedoch nicht 2029 oder 2036. Was das Datum eines möglichen Zusammenstoßes angeht, sieht die Sache hingegen ganz anders aus. Nach einem Jahr kehrt die Erde auf (fast) dieselbe Position in ihrer Umlaufbahn zurück. Das ist die Definition von «Jahr». Insbesondere kehrt unser Planet in Intervallen von einem Jahr an die Stelle zurück, wo sich seine Bahn mit derjenigen des Asteroiden kreuzt, das heißt am selben Tag eines jeden Jahres. (Vielleicht einen Tag früher oder später, wenn der Zeitpunkt nahe bei Mitternacht liegt.) Zufällig ist dieser Tag im Fall von Apophis der 13. April.

Selbst wenn wir recht genau verstehen, wie die Dinge funktionieren, haben wir manchmal dennoch keine Vorstellung davon, was nächste Woche, nächstes Jahr oder nächstes Jahrhundert passiert.

 

Wir sind nun im sechsten Zeitalter der Ungewissheit angelangt. Es ist durch die Erkenntnis gekennzeichnet, dass Ungewissheit viele Formen annehmen kann, die alle bis zu einem gewissen Grad verstehbar sind. Inzwischen kann uns ein umfangreicher mathematischer Werkzeugkasten helfen, vernünftige Entscheidungen in einer Welt zu treffen, die noch immer schrecklich ungewiss ist. Schnelle, leistungsstarke Computer erlauben uns, riesige Datenmengen rasch und präzise zu analysieren. Unsere Denkmodelle lassen sich durch Computermodelle erweitern. Heute können wir mehr Berechnungen in einer einzigen Sekunde durchführen, als es all den Mathematikern in der Geschichte mit Papier und Bleistift möglich war. Inzwischen können wir unser mathematisches Verständnis für die verschiedenen Formen, die Ungewissheit annehmen kann, mit raffinierten Algorithmen kombinieren, die Muster und Strukturen offenlegen oder auch nur quantifizieren, wie unsicher wir sind. Das erlaubt uns, unsere ungewisse Welt bis zu einem gewissen Grad zu zähmen.

Wir können die Zukunft heute viel besser vorhersagen als früher. Zwar ärgern wir uns noch immer, wenn uns die Wettervorhersage versichert, morgen werde es trocken bleiben, es dann aber dennoch regnet; die Präzision der Wettervorhersage hat sich jedoch seit 1922, als der visionäre Meteorologe Lewis Fry Richardson sein bahnbrechendes Buch Weather Prediction by Numerical Process (etwa: Wettervorhersage durch einen numerischen Prozess) veröffentlichte, stark verbessert. Und nicht nur, dass die Vorhersage besser ist: Sie geht zudem mit einer Einschätzung für ihre Eintrittswahrscheinlichkeit einher. Wenn auf der Website des Wetterdienstes von einer «25-prozentigen Niederschlagswahrscheinlichkeit» die Rede ist, heißt das, dass es in 25 Prozent aller Fälle, in denen dieselben meteorologischen Verhältnisse vorlagen, tatsächlich geregnet hat. Wenn es heißt, «80 Prozent Niederschlagswahrscheinlichkeit», dann regnet es durchschnittlich in vier von fünf Fällen.

Wenn die Bank of England Vorhersagen über die Veränderungen der Inflationsrate veröffentlicht, liefert sie in ganz ähnlicher Weise eine Schätzung, die besagt, für wie zuverlässig ihre Fachleute die mathematischen Modelle halten, auf denen die Vorhersage beruht. Die Bank hat auch eine effiziente Weise gefunden, der Öffentlichkeit diese Schätzung zu präsentieren: ein «Fächerdiagramm» (fan chart). Dabei handelt es sich um eine Zeitreihenanalyse, bei der die Entwicklung der vorhergesagten Inflationsrate über die Zeit aufgetragen wird, aber nicht als einzelne Linie, sondern als schattiertes Band. Im Lauf der Zeit wird das Band immer breiter, was einen Verlust an Genauigkeit bzw. zunehmende Ungewissheit anzeigt. Dabei spiegelt die Farbintensität den Level der zugehörige Wahrscheinlichkeit wider: Eine dunkle Region zeigt eine höhere Wahrscheinlichkeit an als eine hellere. Die schattierte Fläche deckt 90 Prozent der Wahrscheinlichkeitsprognose ab.

Fächerdiagramm der Inflationsvorhersage der Bank of England nach dem Consumer Price Index, Februar 2010.

Die Botschaft hier ist eine zweifache. Erstens können wir mit wachsendem Verständnis präzisere Vorhersagen machen. Zweitens können wir Ungewissheit handhaben, indem wir herausfinden, wie viel Vertrauen wir den Vorhersagen schenken sollten.

Und eine dritte Botschaft beginnt sich abzuzeichnen: Manchmal kann Ungewissheit sogar nützlich sein. In vielen technologischen Anwendungen setzt man bewusst Zufallsprozesse, also gewissermaßen kontrollierte Ungewissheit ein, um Geräte und Prozesse zu optimieren. Zufällige Veränderungen erfasster Daten verbessern die Genauigkeit von Wettervorhersagen. Satellitennavigation benutzt große Mengen an Pseudozufallszahlen, um Problemen mit elektrischer Interferenz aus dem Weg zu gehen. Raumfahrtmissionen nutzen Erkenntnisse aus der Chaostheorie, um wertvollen Treibstoff zu sparen.