Das Zufallsprinzip. Vom Ereignis zum Gesetz - Hartmut Kuthan - E-Book

Das Zufallsprinzip. Vom Ereignis zum Gesetz E-Book

Hartmut Kuthan

0,0

Beschreibung

Zufall ist ein facettenreiches Phänomen, das bis in die heutige Zeit nichts von seiner Faszination eingebüßt hat. Was verbirgt sich hinter diesem Phänomen? Gibt es objektiv-realen Zufall? – Oder ist er nur eine Fiktion? Diese Fragen spiegeln nur eine von zahlreichen Kontroversen wider, welche die grundlegenden Begriffe der Wahrscheinlichkeitstheorie und Statistik bereithalten. Der Autor folgt den Spuren der eng verwobenen Begriffe Zufall und Wahrscheinlichkeit von den Anfängen der Wahrscheinlichkeitsrechnung bis hin zu aktuellen Entwicklungen in der Quantenphysik, Chaos- und Informationstheorie. Herausragende Mathematiker und Physiker kommen zu Wort, darunter Jakob Bernoulli, Pierre-Simon Laplace, Henri Poincaré und Albert Einstein. Hartmut Kuthan ist promovierter Naturwissenschaftler. Sein wissenschaftliches Interesse gilt Anwendungen stochastischer Modelle auf zelluläre Prozesse und interdisziplinären Fragestellungen.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern
Kindle™-E-Readern
(für ausgewählte Pakete)

Seitenzahl: 192

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Hartmut Kuthan

Das Zufallsprinzip

Vom Ereignis zum Gesetz

Engelsdorfer Verlag

Leipzig

2016

Bibliografische Information durch die Deutsche Nationalbibliothek: Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar.

Copyright (2016) Engelsdorfer Verlag Leipzig

Alle Rechte beim Autor

Hergestellt in Leipzig, Germany (EU)

www.engelsdorfer-verlag.de

Inhaltsverzeichnis

Cover

Titel

Impressum

Vorwort

1Glücksspiele

2Die Kunst des Vermutens

Jakob Bernoulli

Wahrscheinlichkeit, Zufall und Notwendigkeit

Bernoullis goldenes Theorem

De Moivre und die Glockenkurve

Das Inferenzproblem

3Zufall und Gesetzmäßigkeit

Statistische Stabilität

Gregor Mendels Vererbungsregeln

Das Galton-Brett

Fluktuationen: Symptome des Zufalls

Irrfahrten und Brown’sche Molekularbewegung

4Instabile Atomkerne und rätselhafte Quanten

Radioaktiver Zerfall

Die Quantennatur des Lichts

Unbestimmtheitsrelationen und Quantenzufall

5Chaos und Zufall

Ein neues Paradigma

Das Ende des Laplace’schen Dämons

Deterministisches Chaos

Der Schmetterlingseffekt

6Axiomatisierung der Wahrscheinlichkeit

Kolmogorows Axiome

Interpretationen der Wahrscheinlichkeit

Wahrscheinlichkeit – eine physikalische Eigenschaft?

Das fehlende logische Bindeglied

Seltene Ereignisse und Zufall

7Von Mises’ Kollektivs

Regellose Folgen

Bernoulli-Folgen und Kollektivs

Die Monte-Carlo-Methode

Kryptographie

8Information und Zufälligkeit

Shannon-Entropie

Eine neue Theorie der Information

Algorithmische Zufälligkeit

Nicht-berechenbare Zufälligkeit

9Irrtümer und Fehlschlüsse

Das Ideal: präzise Begriffe

Zufällige Auswahl und Verteilung

Wahrnehmung von Zufallsfolgen

Zufälligkeit – Fakt oder Fiktion?

Anhang 1:Die Binomialverteilung

Anmerkungen

Literaturverzeichnis

Register

Vorwort

Wissenschaftliche Theorien benötigen adäquate Begriffe. Das gilt auch für Theorien, deren Ziel die quantitative Beschreibung unsicherer Ereignisse ist. Wissenschaftliche Begriffe können der Alltagserfahrung entlehnt sein, erfahren dann jedoch in der Regel eine Präzisierung und einen damit verbundenen Wandel ihrer ursprünglichen Bedeutung. Hiervon bilden die Begriffe Wahrscheinlichkeit und Zufall keine Ausnahme. Beide Begriffe sind eng mit der Herausbildung der mathematischen Wahrscheinlichkeitsrechnung und Statistik, heute zusammen als Stochastik bezeichnet, sowie der Informationstheorie verknüpft.

Die Wahrscheinlichkeitsrechnung ist eine relativ junge Wissenschaftsdisziplin: Von ihrer anfänglich exotisch anmutenden Außenseiterrolle stieg sie in nur drei Jahrhunderten zu einer mathematischen Disziplin von größter Bedeutung für die Naturwissenschaften auf. Die wechselseitige Befruchtung von Wahrscheinlichkeitstheorie, Statistik und Naturwissenschaften nahm an der Wende zum 20. Jahrhundert an Intensität zu; sie gipfelte schließlich in einem neuen Weltbild.

Für die Gründungsväter der Wahrscheinlichkeitsrechnung war die im 20. Jahrhundert erfolgte Ablösung des deterministischen Weltbildes, das der Laplace’sche Dämon eindrucksvoll widerspiegelt, nicht vorhersehbar. Die entscheidenden Impulse lieferten revolutionäre Entwicklungen in der Atomphysik, die Ende des 19. Jahrhunderts einsetzten. Besiegelt wurde das Ende des auf dem Kausalitätsprinzip beruhenden Weltbildes der klassischen Physik durch die von Werner Heisenberg 1927 entdeckten quantenmechanischen Unbestimmtheitsrelationen. Mit der Quantentheorie haben Wahrscheinlichkeitsgesetze in der Beschreibung physikalischer Phänomene eine fundamentale Rolle eingenommen – gegen den hartnäckigen Widerstand von weltberühmten Physikern wie Albert Einstein.

Der Triumph des stochastischen Paradigmas blieb nicht auf die Physik begrenzt. Bereits in der von Charles Darwin und Alfred Russel Wallace 1859 begründeten Evolutionstheorie wurden ungerichtete, zufällige Veränderungen der Organismen postuliert. Exemplarisch für Zufallsprozesse in der Biologie wurden indes genetische Prozesse, insbesondere die Vererbung von diskreten Merkmalen auf nachfolgende Generationen, die zuerst 1865 von Gregor Mendel beschrieben wurde.

Unser modernes naturwissenschaftliches Weltbild ist fundamental stochastisch und chaotisch. Dadurch wird das Verstehen der Rolle und Bedeutung der Wahrscheinlichkeit und des seit dem Altertum große Faszination ausübenden Zufalls umso vordringlicher. Einen Königsweg gibt es hierfür nicht. Aber das jahrhundertelange Ringen um die Klarheit dieser Begriffe beschert lehrreiche Einsichten.

Diese Gesichtspunkte hatte ich vor Augen, als ich daranging, den vorliegenden Streifzug durch das Reich der Wahrscheinlichkeit und Zufälligkeit zu unternehmen. Ausgehend von den Anfängen der quantitativen Beschreibung der Unsicherheit bei Glücksspielen, werden die vielfältigen Facetten des Zufalls und der Wahrscheinlichkeit im historischen Kontext beleuchtet. Im Vordergrund stehen hierbei begriffliche Aspekte, die in Lehrbüchern und Monographien gewöhnlich stiefmütterlich behandelt oder gänzlich ausgespart werden. Besonderes Gewicht habe ich auch auf die enge Verzahnung mit der Entwicklung der modernen Naturwissenschaften gelegt. Mit der gewählten elementaren Darstellung verbinde ich die Hoffnung, die interdisziplinäre Thematik leichter zugänglich zu machen.

März 2012 & 2016

Hartmut Kuthan

1 Glücksspiele

Würfel und Spielregel – sie sind die Symbole für Zufall und Naturgesetz.

Manfred Eigen und Ruthild Winkler1

Die Wiege der Wahrscheinlichkeitsrechnung ist das Glücksspiel. Der Briefwechsel zwischen Blaise Pascal (1623-1663) und Pierre Fermat (1607-1665) im Jahre 1654 über zwei vom Chevalier De Méré angeregte Wahrscheinlichkeitsprobleme des Würfelspiels gilt gemeinhin als das Geburtsjahr. Das ist historisch gesehen nicht korrekt – bereits deutlich früher haben sich vor allem italienische Mathematiker, Naturforscher und spielbegeisterte Laien mit speziellen Aufgaben über Glücksspiele befasst; bis zum Ende des 16. Jahrhunderts wurden bereits elementare Grundlagen für die Berechnung von Wett- und Gewinnchancen gelegt. Besonders erwähnenswert: das 1525 von dem leidenschaftlichen Spieler, Arzt und Mathematiker Girolamo Cardano (1501-1576) verfasste „Liber de ludo aleae“ (Buch über Würfelspiele), das nach dem Tode des Verfassers 1576 im Nachlass aufgefunden wurde, aber erst 1663, ein Jahr nach Pascals Tod, in Lyon veröffentlicht wurde. Cardano hat offenbar als Erster den Quotienten aus der Anzahl der günstigen zur Anzahl aller möglichen Fälle verwendet, ohne freilich von Wahrscheinlichkeit zu sprechen.2

Der als Vater der modernen Naturwissenschaften gefeierte Galileo Galilei (1564-1642) hatte sich 1623 ebenfalls mit einer kleinen Schrift „Sopra le scoperte dei dadi“ (Über Entdeckungen zum Würfelspiel) zu Problemen des Spiels mit drei Würfeln zu Wort gemeldet. Er fand die korrekte Lösung, dass die Augensumme 10 durch 27 von insgesamt 216 verschiedenen Würfelergebnissen, die Augensumme 9 dagegen nur durch 25 von 216 Ergebnissen realisiert werden kann. Bemerkenswert ist, dass Galileo Galilei einen empirischen Bezug andeutet, nämlich dass Spieler festgestellt hätten, dass das Eintreten der Augensumme 10 etwas leichter zu erreichen sei.3 Galileis Drei-Würfel-Ergebnisse hatte auch Cardano bereits gefunden.

Wie in der Geschichte der Mathematik und Naturwissenschaften nicht selten festzustellen, wurden wegweisende Theorien von zwei oder mehreren Personen unabhängig voneinander aufgestellt. Das Phänomen der unabhängigen Mehrfacherfindung wurde im Mittelalter, und noch Jahrhunderte darüber hinaus, durch zögerliche Veröffentlichung, unter anderem wegen der verbreiteten Geheimhaltung neuer Ergebnisse, und den oft schwierigen Zugang zu Veröffentlichungen gefördert. Das trifft auch auf die Anfänge der Wahrscheinlichkeitstheorie zu. Der holländische Mathematiker und Physiker Christiaan Huygens (16291695) hatte während seines Besuchs 1655 in Paris Kenntnis von den Würfelspielberechnungen Pascals und Fermats erhalten. Da diese ihre neuen Methoden aber streng geheim hielten, konnte er im Vorwort seiner Abhandlung mit Recht behaupten, dass er gezwungen war, den Gegenstand von den Grundlagen aufwärts selbst zu entwickeln. Die Abhandlung wurde 1657 von seinem Lehrer Frans van Schooten (16151660) aus dem Holländischen ins Lateinische übersetzt und erschien unter dem Titel „De ratiociniis in ludo aleae“ (Über die bei Glücksspielen möglichen Berechnungen). Huygens brachte im Vorwort seiner Abhandlung die Priorität von Pascal und Fermat zum Ausdruck – ein keineswegs selbstverständliches, nobles Verhalten.4

Mit Kommentaren und Lösungen versehen, wurde Huygens’ Abhandlung im ersten Teil von Jakob Bernoullis (1655-1705) berühmter „Ars conjectandi“ (Mutmaßungskunst) 1713 erneut veröffentlicht. Huygens’ systematisch aufgebaute Arbeit basiert auf einem intuitiv gebildeten Begriff der „expectatio“ (Hoffnung oder Erwartung) in einem „rechtmäßigen“, das heißt fairen Spiel. Seine Definition des Erwartungswertes entspricht nicht dem heute üblichen mathematischen Begriff, der den Begriff der Wahrscheinlichkeit voraussetzt; den modernen Begriff führte Abraham de Moivre (1667-1754) ein.5 In den Aufgaben und Beispielen der Huygen’schen Abhandlung dreht sich alles um die Berechnung von Gewinnchancen in „Spielen, welche allein vom Glück entschieden werden“ und deren Ausgang ungewiss ist.

2 Die Kunst des Vermutens

Das Gewebe dieser Welt ist aus Notwendigkeit und Zufall gebildet.

Johann W. von Goethe1

Jakob Bernoulli

Pascal, Fermat und Huygens hatten keinen explizit definierten Begriff der Wahrscheinlichkeit gekannt. Dies war auch noch der Stand, als Jakob Bernoulli zwischen 1680 und 1685 seine Untersuchungen zur Wahrscheinlichkeitsrechnung aufnahm.

Die „Ars conjectandi sive stochastice“, so der vollständige lateinische Titel, erschien 1713, acht Jahre nach dem Tod von Jakob Bernoulli in Basel. Diese Abhandlung erlangte ihre herausragende Bedeutung für die Entwicklung der mathematischen Wahrscheinlichkeitsrechnung und Statistik vor allem durch die im Teil IV enthaltenen Ideen zum Wahrscheinlichkeitsbegriff, zum Problem des statistischen Schließens (Inferenz) und, in ganz besonderem Maße, durch ein berühmtes Theorem, für welches Siméon-Denis Poisson (1781-1840) die Bezeichnung „Gesetz der großen Zahlen“ prägte.2 Bernoulli kommunizierte 1703 seine Theorie mit Gottfried W. Leibniz (1646-1716), der verschiedene Einwände vorbrachte. Der schwer kranke Bernoulli ignorierte letztendlich Leibniz’ Bedenken, diskutierte aber die wesentlichen Einwände im Teil IV der „Ars conjectandi.“

Jakob Bernoulli hinterließ die „Ars conjectandi“ unvollendet. Das Werk wurde schließlich in der ursprünglichen Fassung gedruckt; Jakobs Bruder Johann und sein Neffe Nikolaus I. hatten die Aufforderung der Verleger, das Manuskript zu vollenden, abgelehnt. In deutscher Sprache erschien das klassische Werk erst knapp 200 Jahre nach der Erstveröffentlichung. Die spätere hohe Wertschätzung der „Ars conjectandi“ bestand offensichtlich nicht von Anfang an – in einer zweibändigen Ausgabe der Abhandlungen Bernoullis aus dem Jahre 1744 wurde die „Ars conjectandi“ nicht aufgenommen. Wer war dieser Mann, der die Wahrscheinlichkeitsrechnung und ihre Anwendung auf ein neues, fruchtbares Fundament stellte?

ABBILDUNG 1: Titelblatt der Ars Conjectandi (1713). 3

Jakob Bernoulli, geboren am 27. Dezember 1655 in Basel, war vor allem ein genialer Mathematiker. Zum Mathematiker wurde er, in dem er sich gegen den Willen des Vaters – und daher notgedrungen als Autodidakt – mit Mathematik und Astronomie befasste. Sein Studium der Philosophie schloss er 1671 mit einem Magistergrad, das der Theologie fünf Jahre später mit einem Lizentiat ab. Aber seine große Passion, die er mit mehreren Bernoullis der berühmten Baseler Gelehrten-Familie teilte, waren die Mathematik und angrenzende Gebiete. Mit seinem zwölf Jahre jüngeren Bruder Johann, den er unterrichtete und der ihm 1705 auf den Baseler Lehrstuhl der Mathematik nachfolgte, trug er wesentlich zur Ausgestaltung der Leibniz’schen Infinitesimalrechnung bei. Jakob Bernoulli initiierte Untersuchungen zur Variationsrechnung, die später von Leonhard Euler (1707-1783) und Joseph L. Lagrange (17361813) weiterentwickelt zu großer Bedeutung gelangte, und gilt als Begründer der Methode der vollständigen Induktion und der mathematischen Statistik. Letzteres vor allem durch seine Ideen zur Inferenz und sein bahnbrechendes „goldenes Theorem“.4

Wahrscheinlichkeit, Zufall und Notwendigkeit

Anfang des 18. Jahrhundert gab es noch keine Zersplitterung in Fachdisziplinen. So ist es nicht verwunderlich, dass in dem bei Weitem bedeutendsten, vierten Teil der „Ars conjectandi“ allgemeine Betrachtungen und Feststellungen über Unsicherheit von Wissen und Erkenntnis, Notwendigkeit und Zufälligkeit, aber auch über das Beurteilen von juristischen Sachverhalten sowie Entscheiden und Handeln unter Unsicherheit weiten Raum einnehmen. Tatsächlich sind vier der insgesamt fünf Kapitel des vierten Teils nicht-mathematischer Natur. Um einen Eindruck von der Originalität der Darlegungen zu vermitteln, werden nachfolgend mehrere Passagen zitiert.

Begriffe bilden das Rückgrat einer Theorie. Gleich im ersten Kapitel überrascht Bernoulli mit einer Definition des Begriffes Wahrscheinlichkeit:

Die Wahrscheinlichkeit ist nämlich ein Grad der Gewissheit und unterscheidet sich von ihr wie ein Theil vom Ganzen.5

Die Grade der Gewissheit, und damit die Wahrscheinlichkeitswerte, bewegen sich zwischen 0 und 1, wobei der absoluten Gewissheit 1 zugeordnet wird. Dies ist ersichtlich die Definition eines subjektiven Wahrscheinlichkeitsbegriffes. Sie ist indessen keineswegs neu, sondern wurde schon von Leibniz in früheren Schriften kommuniziert.6 Neu dagegen ist die explizite Angabe eines Wahrscheinlichkeitsbegriffs in einem Werk, das sich mit der mathematischen Behandlung ungewisser Ereignisse und Aussagen befasst. Wie die spätere Entwicklung zeigt, sind subjektive Wahrscheinlichkeitsbegriffe heute noch vertretbare Interpretationen der mathematischen Wahrscheinlichkeit.

Nach der Begriffsbestimmung der Wahrscheinlichkeit behandelt Bernoulli die Modalitäten „möglich“, „unmöglich“ und „moralisch gewiss“:

Möglich ist das, was einen, wenn auch sehr kleinen Theil der Gewissheit für sich hat; unmöglich ist dagegen das, was keinen oder einen unendlich kleinen Theil der Gewissheit besitzt (…) Moralisch gewiss ist etwas, dessen Wahrscheinlichkeit nahezu der vollen Gewissheit gleichkommt (…)7

Auch der Begriff der moralischen Gewissheit wurde bereits von Leibniz und anderen benutzt. Heute wird „moralische Gewissheit“ als „praktische Sicherheit“ bezeichnet. Zufälligkeit und Notwendigkeit werden von Bernoulli als Gegensatzpaar behandelt. Zum Begriff der Notwendigkeit führt er aus:

Nothwendig ist das, was sein, werden oder gewesen sein muss (…) dass das Dreieck drei Winkel besitzt, deren Summe gleich zwei Rechten ist (…)8

Aber Bernoulli sieht den Gegensatz von Notwendigkeit und Zufälligkeit nicht als absolut an:

(…) nicht immer schliesst die Zufälligkeit die Nothwendigkeit bis zu Ursachen von untergeordneter Bedeutung ganz aus (…)9

Was Bernoulli dann dazu in aller Kürze anführt, ist verblüffend: Er skizziert die Grundideen der Physik zufälliger Ereignisse anhand des Würfels und des zukünftigen Wetters. Zwei volle Jahrhunderte werden noch verstreichen, bis Henri Poincaré (1854-1912) und Marian W. von Smoluchowski (1872-1917) hierzu vertiefte Einsichten präsentieren. Bernoulli fasst seine Betrachtungen mit den folgenden Worten zusammen:

Daraus folgt, dass einem Menschen und zu einer bestimmten Zeit etwas als zufällig erscheinen kann, was einem andern Menschen (ja sogar auch demselben) zu einer andern Zeit, nachdem die Ursachen davon erkannt sind, als nothwendig erscheint. Daher hängt die Zufälligkeit vornehmlich auch von unserer Erkenntnis ab (…)10

Jakob Bernoulli vertritt auch hier eine subjektive Position: Zufälligkeit beruht auf unzureichender Kenntnis der Ursachen. Das Kausalitätsprinzip und die Determiniertheit aller Ereignisse anzuzweifeln, liegt ihm fern – letztendlich ist jegliches Geschehen vollkommen bestimmt. Ein Jahrhundert später wird uns dieses deterministische Weltbild bei Pierre-Simon Laplace (1749-1827) in vollendeter Form wiederbegegnen. Diese weltanschauliche Position ist ein Spiegel des festen Glaubens an eine durchgehende Kausalität und kosmische Ordnung, wie sie bereits die von Zenon von Kition (um 333-264 v. Chr.) begründete antike Stoà vertrat. Das Paradigma der universellen Determiniertheit des Naturgeschehens, welches noch bis in das erste Viertel des 20. Jahrhunderts Bestand hatte, wurde erst durch die Quantentheorie erschüttert.

Nach den einleitenden Ausführungen kommt Bernoulli im Kapitel 2 von Teil IV der „Ars conjectandi“ zu seinem zentralen Anliegen – der Kunst des Vermutens:

Irgend ein Ding vermuthen heisst soviel als seine Wahrscheinlichkeit messen. 11

In dieser Formulierung wird Bernoullis Absicht deutlich, ein quantitatives Maß des Vermutens einzuführen, daher auch der Titel seiner Abhandlung „Mutmaßungskunst“. Als grundlegend sieht er die Bestimmung der Fälle, das heißt die Gesamtheit unterscheidbarer Ausgänge oder Beobachtungen an. Diesem Ziel nähert er sich zweigleisig.

Bei einfachen Glücksspielen wie dem Würfelspiel oder beim Ziehen von weißen oder schwarzen Steinchen aus einer Urne, die „gleich leicht“ gezogen werden können, kann die Zahl der Fälle durch Abzählen jeweils genau angegeben werden. Beim Würfel ergibt sich die Anzahl der Fälle aus der Anzahl der Flächen. Diese sechs Fälle werden a priori als „gleich leicht möglich“ angesehen wegen der gleichen Gestalt der Flächen und der gleichmäßig verteilten Masse.12 Bernoulli sieht aber klar, dass diese Vorgehensweise „fast nirgends anders als in Glücksspielen“ möglich ist. Denn anders liegen die Verhältnisse etwa bei Vermutungen „über das Verhältnis von Leben und Sterben“ künftiger Generationen oder den Veränderungen, „welche die Luft täglich unterworfen ist“. Wegen der „unendlichen Mannigfaltigkeit“ des Zusammenwirkens verborgener Ursachen kommt der erstgenannte Weg, die Fälle zu bestimmen, nicht infrage. Doch Bernoulli sieht einen Ausweg: Er schlägt eine Bestimmung a posteriori vor. Für diese Idee beansprucht er keinerlei Priorität, vielmehr verweist er auf eine früher erschienene französische Abhandlung und meint untertreibend, dass die empirische Art, die Anzahl der Fälle zu ermitteln, weder neu noch ungewöhnlich sei, sondern alle Menschen dasselbe Verfahren beobachten würden. Weiter führt er aus:

Auch leuchtet jedem Menschen ein, dass es nicht genügt, nur eine oder die andere Beobachtung anzustellen, um auf diese Weise über irgendein Ereignis zu urtheilen, sondern dass eine grosse Anzahl von Beobachtungen erforderlich sind (…) Obgleich nun dies aus der Natur der Sache heraus von Jedem eingesehen wird, so liegt doch der auf wissenschaftliche Prinzipien gegründete Beweis durchaus nicht auf der Hand, und es liegt mir daher ob, ihn an dieser Stelle zu erbringen.13

Jakob Bernoulli sieht aber noch einen weiteren wichtigen Punkt. Er will herausfinden, ob die Wahrscheinlichkeit, das bekannte wahre Verhältnis der günstigen zur Zahl der ungünstigen Beobachtungen zu erreichen, mit wachsender Zahl der Beobachtungen zunimmt, und zwar so, dass jeder beliebige Grad der Gewissheit übertroffen wird. Vorstellbar wäre auch, dass eine bestimmte Schranke des erreichbaren Gewissheitsgrades, das heißt der Genauigkeit der Schätzung des wahren Verhältnisses, nicht überschritten werden kann. Er verdeutlicht dies an einem Beispiel. In einer Urne seien 3000 weiße und 2000 schwarze Steinchen enthalten, die „gleich leicht“ entnommen werden können. Die Versuchsperson, die dieses Verhältnis (3:2) der verschiedenfarbigen Steinchen nicht kennt, habe die Aufgabe, durch sequentielle Entnahme von jeweils einem Steinchen dieses Verhältnis zu ermitteln. Das entnommene Steinchen wird stets zurückgelegt, so dass sich vor jeder Entnahme immer dieselbe, ursprüngliche Gesamtzahl weißer und schwarzer Steinchen in der Urne befindet. Die Farbe des entnommenen Steinchens wird registriert.

Bernoulli behauptet nun: Wenn durch eine große Zahl von Entnahmen schließlich „moralische Gewissheit“, das heißt praktische Sicherheit, erzielt werden kann, dass das Verhältnis der entnommenen weißen und schwarzen Steinchen den Wert 3:2 annimmt, so können wir die Anzahl der Fälle a posteriori fast ebenso genau finden, als wenn sie a priori bekannt wären. Einschränkend ergänzt er, dass ein durch Beobachtungen bestimmtes Verhältnis nur mit einer bestimmte Näherung erhalten wird, welches er zwischen zwei Grenzen einschließen will, die aber beliebig nahe beieinander angenommen werden können. Im Urnenbeispiel könnten wir etwa die Verhältnisse 301/200 und 299/200 oder 3001/2000 und 2999/2000 annehmen. Dann würde sich zeigen:

(…) dass es mit jeder beliebigen Wahrscheinlichkeit wahrscheinlicher wird, dass das durch häufig wiederholte Beobachtungen gefundene Verhältniss innerhalb dieser Grenzen des Verhältnisse 1½ [3:2] liegt, als ausserhalb derselben.14

Bernoullis Programm ist damit umrissen. Auf die logische Schwierigkeit beziehungsweise Unmöglichkeit, empirische Zusammenhänge mathematisch beweisen zu können, werden wir zurückkommen.

Das abstrakte Versuchsmodell mit zwei möglichen Ausgängen, einem günstigen („Erfolg“) und einem ungünstigen („Misserfolg“), repräsentiert einen Bernoulli-Versuch. Die Bezeichnung führte James V. Uspensky (1937) ein. Die unabhängige Wiederholung eines Bernoulli-Versuchs wird Jakob Bernoulli zu Ehren als Bernoulli-Schema bezeichnet. Den einfachen Bernoulli-Versuch beschreibt die Bernoulli- oder Null-Eins-Verteilung, wiederholte Bernoulli-Versuche (Bernoulli-Ketten) die Newton’sche Formel, heute Binomialverteilung genannt (siehe Anhang 1). Die an Jakob Bernoulli anknüpfenden Arbeiten von Abraham De Moivre und Thomas Bayes (1701-1761) konzentrierten sich ebenfalls auf das Bernoulli-Schema. Doch zunächst bleiben wir auf den Spuren des nach Bernoulli benannten Lehrsatzes.

Bernoullis goldenes Theorem

Jakob Bernoulli führte seinen Beweis des berühmten Theorems im Kapitel 5 von Teil IV der „Ars conjectandi“ mit Hilfe von fünf Hilfssätzen. Er benutzt nur elementare arithmetische Hilfsmittel. Gleichwohl, der Beweis ist streng – auch nach heutigen Maßstäben. Bernoullis Methode führt zu einem weiteren bedeutenden Theorem, das auf De Moivre und Laplace zurückgeht. Aus diesen Gründen greifen James V. Uspensky und Alfréd Rényi in ihren Monographien von 1937 beziehungsweise 1970 auf den Originalbeweis zurück. In den meisten modernen Lehrbüchern wird ein wesentlich kürzerer Beweis von Bernoullis Gesetz der großen Zahlen wiedergegeben, der auf der Bienaymé-Tchebychev’schen Ungleichung beruht – und den im 19. Jahrhundert formalisierten Grenzwertbegriff benutzt.

Bernoulli benutzt durchweg das Wort Beobachtungen, auch wenn sich seine Aussagen auf ein abstraktes mathematisches Modell beziehen. Er trifft also keine sprachliche Unterscheidung zwischen dem Gedankenmodell und einem real ausgeführten „Zufallsexperiment“. Ähnlich verfährt mehr als 100 Jahre später Poisson. Dieser schreibt in der Vorrede zu seinem Hauptwerk (1837):

Die Erscheinungen jeglicher Art sind einem allgemeinen Gesetze unterworfen, welches man das Gesetz der großen Zahlen nennen kann. Es besteht darin, daß, wenn man sehr große Anzahlen von Erscheinungen derselben Art beobachtet, welche von constanten und von unregelmäßigen veränderlichen Ursachen abhängen, die aber nicht progressiv veränderlich sind, sondern bald in dem einen bald in dem anderen Sinne; man zwischen diesen Zahlen Verhältnisse findet, welche fast unveränderlich sind.16

Diese Aussage ist zweifellos auf reale Ereignisse bezogen. Gleichwohl wird im Hauptteil seines Werkes eine Verallgemeinerung von Bernoullis Theorem ebenfalls als Gesetz der großen Zahlen bezeichnet. Das Wort Wahrscheinlichkeit taucht im oben zitierten Erfahrungssatz im Gegensatz zum Theorem nicht auf. Auf diese und weitere gravierende Unterschiede hat als Erster der bedeutende Wahrscheinlichkeitstheoretiker Richard von Mises (1883-1953) mit Nachdruck hingewiesen.17

Die sprachliche Gleichsetzung eines Erfahrungssatzes und des korrespondierenden Theorems hatte beträchtliche logische Verwirrung zur Folge. Ein mathematischer Satz, so auch Bernoullis Theorem, stellt das Resultat logischer Umformungen geeignet gewählter Axiome dar. Axiome sind elementare Grundaussagen. Die einzelnen Schritte des mathematischen Beweises eines Theorems erfolgen mit logischer Notwendigkeit und gelten damit als sicher. Lehrsätze der Arithmetik, Geometrie und Logik stehen für volle Gewissheit – Zufallselemente bleiben außen vor.

Was also beschreibt das mathematische Gesetz der großen Zahlen? Bernoullis Theorem trifft eine Wahrscheinlichkeitsaussage über die Annäherung der relativen Häufigkeit der „günstigen“ Ausgänge von Bernoulli-Versuchen an den sogenannten Erwartungswert (Mittelwert) beziehungsweise die Wahrscheinlichkeit. Diese Feststellung wollen wir nachfolgend näher betrachten. Wir bleiben bei unserem anschaulichen Gedankenexperiment einer Serie von unbegrenzt wiederholbaren, unabhängigen Münzwürfen. Die Ausgänge einer Versuchsserie werden als Elementarausgänge oder Elementarereignisse bezeichnet. Nun stellt sich heraus, dass bestimmte Elementarereignisse am wahrscheinlichsten sind, und zwar diejenigen Elementarereignisse, bei denen die günstigen („Kopf“) und ungünstigen („Zahl“) Ausgänge in gleicher oder annähernd gleicher Anzahl vertreten sind. Mit zunehmender Zahl der Versuche wächst der Anteil derjenigen Elementarereignisse, bei denen die relative Häufigkeit von günstigen Ausgängen höchstens um einen (vorgegebenen) kleinen Betrag von ½ abweicht. Bei einer unbegrenzt fortgesetzten Versuchsserie wächst die Wahrscheinlichkeit für eine gegen null tendierende Abweichung von ½ bis zur Gewissheit.

ABBILDUNG 2: Pascal’sches Dreieck.

Jetzt können wir zu unserem Ausgangspunkt zurückkehren. Das Pascal’sche Dreieck zeigt uns anschaulich, dass die um die maximalen Werte gruppierten Binomialkoeffizienten mit steigender Versuchszahl solche Elementarereignisse repräsentieren, für die die relativen Häufigkeiten der günstigen Ausgänge zunehmend dichter an ½ heranrücken. Anders ausgedrückt: Immer mehr Elementarereignisse haben eine exakt gleiche oder zunehmend dichter bei 1:1 liegende Anzahl von „Kopf“ und „Zahl“.