31,99 €
Kluge Entscheidungen verlangen Datenkompetenz! In der heutigen Wirtschaftswelt stehen Führungskräfte vor einer Datenflut, die zahlreiche strategische Herausforderungen mit sich bringt. Ein souveräner Umgang mit der stetig steigenden Zahl an erhobenen, analysierten und KI-generierten Daten erfordert nicht nur technisches Know-how, sondern Haltung und klare Zielorientierung. Katharina Schüller, Expertin für KI- und Datenkompetenz, stellt in ihrem Buch ein praxisnahes Tool- und Skillset vor. Sie verbindet persönliche Erfahrungen mit Beispielen aus der Arbeitswelt und lässt weitere Fachleute zu Wort kommen, die zeigen, wie datenkompetentes Handeln im Arbeits- und Führungsalltag gelingt. Zudem macht sie deutlich, welches Mindset nötig ist, um die Macht der Daten im Einklang mit menschlichen Werten zu nutzen. »Dieses Buch ist ein Kompass. Es lehrt uns nicht nur, mit Zahlen umzugehen, sondern auch mit der Verantwortung, die daraus erwächst. Es befähigt uns, unsere Urteilskraft zu schärfen, ohne uns in der Komplexität der Welt zu verlieren.« Florence Gaub
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Veröffentlichungsjahr: 2025
Katharina Schüller
DATEN SIND MACHT
Kompetentes Entscheiden im Zeitalter von KI
Campus Verlag
Frankfurt/New York
Über das Buch
Es geht um viel mehr als bloße technische Skills. Es geht um die souveräne Nutzung von Daten und KI für informierte, optimierte und kontextgerechte Entscheidungen.• Wie funktioniert dateninformiertes Entscheiden in konkreten Arbeits- und Führungssituationen?• Wie kann ich mich selbst, meine Organisation, meine Abteilung fit machen für die zukünftige Arbeitswelt?• Was gilt es bei einer Datenstrategie zu beachten, was bei Innovationen aus Daten oder beim Führen eines Teams von Data & AI Nerds?Die Datenkompetenzexpertin Katharina Schüller stellt in ihrem Buch ein umfassendes Tool- und Skill-Set für Führungskräfte vor. Gleichzeitig zeigt sie, welches Mindset man braucht, um die Macht der Daten im Einklang mit menschlichen Werten einzusetzen.
Vita
Katharina Schüller leitet seit 20 Jahren das Beratungsunternehmen STAT-UP mit Fokus auf Datenstrategien, Data Science und KI, ist akkreditierte Statistikerin (AEUStat) und Vorstandsmitglied der Deutschen Statistischen Gesellschaft. Sie erhielt zahlreiche Auszeichnungen und ist gefragte Vortragsrednerin. 2022 veröffentlichte sie als Ko-Autorin bei Campus »Grüne fahren SUV und Joggen macht unsterblich. Risiken und Nebenwirkungen der Ustatistik«.
Cover
Titel
Über das Buch
Vita
Inhalt
Impressum
Geleitwort von Florence Gaub
1 Reise ins Neuland
Meine persönliche Expedition in die Welt der Daten und der KI
Das Öl des 21. Jahrhunderts
Statistik als Rettung?
Daten und Haltung
Statistik und Macht: Von Astrologie bis Zensus
Zähle und herrsche
Den Zufall zähmen
Power to the People
Zahlen schaffen Wirklichkeit
Mensch und Maschine: Was Führungskräfte über KI und Ethik wissen müssen
Muster und ihre Bedeutung
Wahrscheinlichkeiten lügen nicht
Mit Daten führen
2 Das Ziel: Entscheiden und Führen in der Arbeitswelt der Zukunft
Warum funktionale Devianz ein Risiko ist – und wie man sie vermeidet
Gute Daten, schlechte Daten?
Das Risiko der Zukunft
Systemische Entmachtung
Die Kraft der Störungen
Schöne Aussichten: Chancen und Potenziale kompetenter KI-Nutzung
Als Individuum lernen und wachsen
Führen und Zusammenarbeiten im Team
Inklusion und Gerechtigkeit für alle
Schlimme Aussichten: Risiken und Nebenwirkungen von Daten und Algorithmen
Reproduzierter Bias
Diskriminierende Entscheidungen
Alternative Fakten
Erschlichenes Vertrauen
Hybride Bedrohungen
Aufbruch: Future Skills für die Arbeitsrealität mit KI
KI braucht kommunikative Kompetenz
Mitarbeiter brauchen Data Literacy
Unterwegs mit Experten: Führung braucht Zeit zu denken
3 Der Start: Die passende Ausrüstung sicherstellen
Von der Problemstellung bis zum Handeln: Was Sie an Werkzeug brauchen
Vom Status quo zu den Daten
Von Daten zu Informationen
Von Informationen zu Fakten
Von Fakten zu einem neuen Zustand
Das Problem definieren: Die richtigen Fragen stellen
Smarte Fragen, smarte Daten
Fünfzig Schattierungen einer Organisation
Glauben und Wissen
Die Daten beurteilen: Typische Datenfehler erkennen
Gefilterte Wirklichkeit
Fehler in allen Facetten
Spuren lesen, Fehler finden
In Algorithmen denken: Die Daten in Wissen verwandeln
Die Analyse-Werkstatt
Die Lage überblicken
Narrative hinterfragen
Muster erkennen
Ins Handeln kommen: Das Richtige tun, wenn KI mit ins Team kommt
Die Botschaft vermitteln
Entscheidungen treffen
Die Zukunft gestalten
Unterwegs mit Experten: Statistik als Wächter der Wahrheit
4 Etappen und Wegweiser: Orientierung finden
Die Roadmap zur daten- und KI-kompetenten Führung: Wie Sie gut ans Ziel kommen
Gemeinsam losgehen
Den Kurs halten
Unterwegs mit Experten: Daten ermöglichen Transformation
Vertrauen: Mehrwerte für alle schaffen
Impact durch IDA
Vorausschauend Verantwortung übernehmen
KI als Wegbegleiter: AI Risk and Impact Evaluation
Wollen: Die Veränderung managen
Alles auf dem Prüfstand
Regeln neu aushandeln
KI als Wegbegleiter: Inverse Transparenz
Verstehen: Toolset, Skillset und Mindset aufbauen
Spielend Intuition entwickeln
KI als Wegbegleiter: Ein Personal Coach für KI-Kompetenzen
Unterwegs mit Experten: Zirkuläre Datenkompetenz
Können: Experten als Coaches integrieren
Die gemeinsame Sprache entwickeln
KI als Wegbegleiter: Innovation Maps
Unterwegs mit Experten: One size fits nobody
5 Nach der Ankunft: Die Reise reflektieren
Ethische Daten- und KI-Kompetenz: Wie verändert sie Kommunikation und Führung?
Wie alles zusammenhängt
Führen mit allen Sinnen
Kompetenz im Arbeitsalltag: Wie sich kritischer Umgang mit Daten und KI zeigt
Wozu wir Fehler brauchen
Zählen, was zählt
Selbstwirksamkeit: Wie KI die Innovationskraft erhöht und Menschen empowert
Wie Meisterschaft entsteht
Das Ungehörige denken
Darüber reden: Wie die Kommunikation mit und über KI gelingt
Warum KI-Agenten Führung brauchen
Dies- und jenseits des Messbaren
Unterwegs mit Experten: Fakten statt gefühlter Wahrheiten
6 Schnelle Hilfe: Das Notfall-Paket für dateninformiertes Entscheiden
Bedarf einschätzen: Wo stehe ich, was brauche ich an Data & AI Literacy?
Handlungsfelder abstecken: Wo und wie kann ich einsteigen – und mit wem?
Unterwegs mit Experten: Von Wissenslücken zur Wirkmächtigkeit
Super-Tricks: Wie hinterfrage ich Daten und KI unter Zeitdruck?
Wo kommen die Daten her?
Wie werden die Informationen dargestellt?
Welche Schlüsse erlauben die Informationen?
Vertrauen ist gut, Kontrolle ist besser
So viele Zweifel?
Ausblick: Wo finde ich weitere Ressourcen?
Ein gutes Ende
Nachwort von Ulrich Hemel
Nachwort von Michael von Prollius
Anmerkungen
1 Reise ins Neuland
2 Das Ziel: Entscheiden und Führen in der Arbeitswelt der Zukunft
3 Der Start: Die passende Ausrüstung sicherstellen
4 Etappen und Wegweiser: Orientierung finden
5 Nach der Ankunft: Die Reise reflektieren
6 Schnelle Hilfe: Das Notfall-Paket für dateninformiertes Entscheiden
Zukunft ist nichts, was einfach geschieht. Zukunft ist das Ergebnis unserer Entscheidungen.
Wir leben in einer Ära fundamentaler Transformationen: geopolitisch, ökologisch, technologisch – und epistemologisch. Denn zunehmend stellt sich nicht nur die Frage, was wir entscheiden, sondern wie wir überhaupt zu tragfähigen Entscheidungen gelangen. In einer Welt voller Ambiguität und Disruption – einer Welt, in der künstliche Intelligenz und datengetriebene Systeme nicht länger nur Werkzeuge, sondern Mitgestalter unserer Realität sind – wird Datenverstehen zur strategischen Schlüsselkompetenz.
Wer die Zukunft verstehen will, muss die Grammatik von Daten lesen können. Und wer Zukunft gestalten will, muss wissen, wie aus Zahlen Narrative, aus Wahrscheinlichkeiten Prioritäten, aus Modellen Macht entsteht. Katharina Schüllers Buch Daten sind Macht liefert hierfür keine bloßen Handreichungen. Es vermittelt ein Denken, das dringend notwendig ist – für Führungskräfte, Entscheidungsträger und all jene, die Verantwortung für mehr als nur das Hier und Jetzt tragen.
Denn Daten sind kein neutrales Rohmaterial. Sie sind immer eingebettet in Kontexte, Annahmen, Modelle. Sie können leuchten – oder blenden. Orientierung geben – oder lenken. Wenn wir nicht verstehen, woher Daten kommen, was sie abbilden und wie sie verarbeitet werden, dann riskieren wir, ihre strukturelle Kraft zu unterschätzen – und mit ihr die Mechanismen, mit denen sie unsere Gesellschaft formen.
Gerade in der Zukunftsforschung erleben wir, wie sehr der Blick auf Kommendes davon abhängt, mit welchem kognitiven Werkzeugkasten wir ihn gestalten. Szenarien, Simulationen, Frühindikatoren – sie alle gründen letztlich auf Daten. Doch ihre Aussagekraft steht und fällt mit unserem Umgang damit. Zukunft ist kein festgelegter Fahrplan, sondern ein Möglichkeitsraum. Und die Fähigkeit, in diesem Raum zu navigieren, hängt untrennbar mit der Kompetenz im Umgang mit Unsicherheit zusammen – sowohl statistischer als auch strategischer.
Was Katharina Schüller eindrucksvoll zeigt: Data Literacy ist nicht nur etwas für Analyst:innen oder IT-Abteilungen. Es ist ein Mindset, das in jede Führungsetage gehört. Ein Instrument zur Selbstermächtigung in einer Welt, in der die Grenze zwischen Mensch und Maschine, zwischen Fakt und Interpretation, zwischen Algorithmus und Urteil immer unschärfer wird.
Wer heute entscheidet, entscheidet fast immer auf Grundlage von Daten. Doch nur wer versteht, wie diese Daten zustande kommen, welche Annahmen ihnen zugrunde liegen und wo ihre Grenzen liegen, kann gute Entscheidungen treffen – das heißt: Entscheidungen, die nicht nur effizient sind, sondern auch ethisch tragfähig, strategisch klug und zukunftsfest.
Dieses Buch ist deshalb mehr als ein Ratgeber – es ist ein Kompass. Es lehrt uns nicht nur, mit Zahlen umzugehen, sondern auch mit der Verantwortung, die daraus erwächst. Es befähigt uns, unsere Urteilskraft zu schärfen, ohne uns in der Komplexität der Welt zu verlieren. Und es erinnert uns daran, dass Daten allein keine Zukunft machen – aber unser Umgang mit ihnen sehr wohl.
Die Zukunft gehört jenen, die lernen, ihre Komplexität zu durchdringen – und den Mut haben, ihr mit offenen Augen zu begegnen.
Dr. Florence Gaub ist eine deutsch-französische Politikwissenschaftlerin, Zukunftsforscherin und Sicherheitsexpertin, die seit 2023 die Forschungsabteilung am NATO Defense College in Rom leitet. Sie hat zahlreiche Publikationen zu internationalen Sicherheitsfragen, Zukunftsszenarien und geopolitischen Trends verfasst und berät Regierungen sowie internationale Organisationen. Gaub ist zudem als Gastprofessorin, Mitglied internationaler Zukunftsräte und Präsidentin des Futurate Institute aktiv. Ihr Bestseller Zukunft – eine Gebrauchsanweisung bietet praktische Orientierungshilfen für die Gestaltung einer nachhaltigen Zukunft.
Einführung
In einer Welt, die von Unsicherheit und Informationsflut geprägt ist, sind Daten zur wichtigsten Entscheidungsgrundlage – und manchmal auch zur schärfsten Waffe – geworden. Zu Beginn nehme ich Sie mit auf meine persönliche und berufliche Reise durch Krisen, Triumphe und Grenzerfahrungen. Dann reisen wir zusammen in die Geschichte. Was verbindet Fußball, Astrologie, Hygiene und Bierbrauen mit aktueller transatlantischer Politik?
Na klar: die Statistik. Schon als Verwaltungswerkzeug ist sie politisch, später wird sie zum flexiblen Instrument der Erkenntnis und Einflussnahme und prägt bis heute unser Bild von Wahrheit, Gerechtigkeit und politischem Wandel. Gemeinsam sehen wir uns an, wie Herrscher, Wissenschaftler und Visionäre1 Daten nutzen – mal zur Sicherung von Macht, mal zur Befreiung der Schwächeren. Schließlich schlagen wir die Brücke zwischen der Statistik und der KI, genauso wie zwischen Daten und Intuition: Was unterscheidet Mustererkennung von kausalen Analysen? Wie prägen Daten unser heutiges Verständnis von Führung? Und was hat das alles mit Nachhaltigkeit und Fairness zu tun?
Ein mutmaßlicher Mörder taucht in diesem ersten Kapitel auf, aber auch mehrere Nobelpreisträger, Angela Merkel und Papst Franziskus spielen eine Rolle. Am Ende verstehen Sie, warum Data & AI Literacy unerlässlich ist, damit Sie als Führungskraft nicht nur kompetente, sondern auch ethische Entscheidungen treffen.
Meine Reise ins Neuland beginnt am 13. März 2020, ein paar Wochen vor meinem 43. Geburtstag. Es ist ein Freitag. Ich leite zu diesem Zeitpunkt ein kleines Beratungsunternehmen für Statistik, das ich während meines Studiums gegründet habe. Im Jahr 2003, als mein Unternehmen STAT-UP noch ein Start-up war, haben die meisten Leute ungläubig den Kopf geschüttelt: »Was machst du? Statistikberatung? Wer braucht denn so was?«
Ich bin unerschütterlich davon überzeugt, dass jeder Statistik braucht – auch wenn er es noch nicht weiß. Die Überzeugungsarbeit entpuppte sich allerdings als deutlich schwieriger als gedacht. Meine ersten Beratungsstunden verkaufte ich über eBay und durchsuchte stundenlang auf der Business-Plattform Xing (damals noch OpenBC) die Foren, um Mitglieder zu finden, die auf der Suche nach Hilfe in Sachen Datenanalyse waren. Im Durchschnitt war ich erfolgreich – aber mit hoher Volatilität. Das bedeutete, immer wieder wochenlang durchzuarbeiten, weil etwa die interne Beratungsgesellschaft eines bekannten Automobilherstellers auf den allerletzten Drücker Datengrundlagen für ihren Marketingplan brauchte. Oder weil eine Großbank ein spezielles Modell zur Analyse von Börsendaten implementiert haben wollte, um auf dieser Basis komplexe Finanzprodukte zu bauen. Von diesem Modell, für das zwei Wirtschaftswissenschaftler kurz zuvor einen Nobelpreis bekamen, hatten ich und meine beiden damaligen Mitgründer anfangs aber noch herzlich wenig Ahnung (obwohl wir das natürlich niemals zugegeben hätten).
Und dann gab es lange Phasen, in denen wir drei einfach nur auf unseren Bürostühlen vom Wertstoffhof herumsaßen, in einem tristen Industrieviertel nördlich der Münchner Rotlichtmeile, im kleinen, schmuddeligen Eckbüro, das uns ein Freund kostenlos überlassen hatte, und nicht wussten, wie wir weitermachen sollten. Aufgrund dieses Dauerstresses zwischen Burn-out und Bore-out sind meine beiden Partner letztlich ausgestiegen, nachdem sie ihre Doktorarbeit abgeschlossen hatten. Der eine ist Professor geworden und der andere Vorstand eines Energieversorgers. Immerhin kann man mit STAT-UP Karriere machen.
Gut zehn Jahre – bis etwa 2015 – vergingen ohne große Aufregung. Wenn man mal davon absieht, dass ich in dieser Zeit mein viertes Kind zur Welt brachte, astrologische Analysen für keinen Geringeren als den weltbekannten Playboy, Unternehmer und Mathematiker Gunter Sachs durchführte, mit dem Chemie-Nobelpreisträger Kary Mullis zusammenarbeitete, einem mutmaßlichen Mörder zum Freispruch verhalf – und nebenbei Studierende an rund einem Dutzend deutscher Hochschulen für Statistik zu begeistern versuchte. Fünf Mitarbeiter waren an meiner Seite, dazu ein paar Praktikanten und Werkstudenten.
Im Jahr 2020 hatte STAT-UP schon fast zwanzig Berater, und endlich fühlte es sich an, als würde ich ein richtiges Unternehmen leiten. In weniger als fünf Jahren hatte sich unser Geschäft sehr positiv entwickelt, und wir mussten uns keine Sorgen um die Auftragslage machen. Denn das Zeitalter der Daten hatte begonnen. Der Satz »Daten sind das Öl des 21. Jahrhunderts« schien endlich das alte Vorurteil abzulösen, dass man keiner Statistik glauben könne, die man nicht selbst gefälscht habe. Kleine und auch ganz große Unternehmen aus unterschiedlichsten Branchen meldeten sich bei mir und fragen nach, ob wir ihnen helfen könnten, Muster in ihren Daten zu verstehen, Vorhersagen zu machen und Handlungsoptionen zu evaluieren. Das Beste daran: Wir mussten nicht einmal etwas dafür tun.
Nun ja, fast nichts. Denn ich lasse wenige Gelegenheiten aus, darüber zu sprechen, wie wichtig Statistik als Mittel zur Entscheidungsfindung unter Unsicherheit ist. Das macht Spaß und fühlt sich selten nach Arbeit an, weil es mich schon immer begeistert hat, wie viel man aus Daten lernen kann, wenn man Statistik vernünftig anwendet: über Menschen, Wirtschaft, Sport, Börsen, die Umwelt und das Klima – einfach über alles. Außerdem bin ich neugierig – und wenn irgendwo Neuland ist, bin ich eine der Ersten, die sich für eine Expedition dorthin rüstet.
Über all das Faszinierende, das mir auf meinen Statistikexpeditionen begegnet, schreibe und rede ich überall und ständig: Ob in meiner Radiosendung Das Statistik-Gespräch, in der ich seit fünf Jahren jede Woche eine Statistik erkläre – und die meine späteren Unstatistik-Kollegen Thomas Bauer, Gerd Gigerenzer und Walter Krämer in ihrem Bestseller Warum dick nicht doof macht und Genmais nicht tötet wärmstens empfehlen. In meinem eigenen Buch Statistik und Intuition, das – wie der Untertitel schon sagt – statistische Alltagsbeispiele kritisch hinterfragt. Als Gastautorin und später als feste Koautorin der Unstatistik des Monats. Und nicht zuletzt im Vorstand der Deutschen Statistischen Gesellschaft, zu dem mich ausgerechnet Walter Krämer, ein vehementer Gegner des Genderns, überredet hat mit den Worten: »Du musst unbedingt kandidieren, es gibt nur eine Frau im Vorstand, und die brauchen da oben mal frischen Wind.«
Das ist genau meins: Die Statistik aus dem Elfenbeinturm holen, rein ins richtige Leben, wo sie herkommt und auch hingehört! Nicht jeder meiner Vorstandskollegen ist glücklich darüber, dass ich ständig darauf dränge, sich stärker mit anderen Disziplinen und Praktikern, insbesondere aus der Informatik, zu vernetzen. Aber mein Dickkopf lässt sich davon nicht beirren: Auf der Jahrestagung der Gesellschaft in Linz im Jahr 2017 hielt ich den Plenarvortrag und fragte ins Publikum, wer die aktuelle Studie2 des Stifterverbands zu den Data-Science-Studiengängen in Deutschland gelesen habe. Data Science – das ist schließlich im Kern Statistik, dachte ich. Aber die Studie listet ausschließlich Informatik-Fakultäten auf, und kein Statistiker kennt sie! Vor lauter Empörung beschloss ich, mich für die Folgestudie zu bewerben, die das Thema »Datenkompetenzen« näher beleuchten sollte. Keiner der renommierten Statistik-Professoren, die ich als mögliche Koautoren anfragte, wollte sich daran beteiligen. Also schrieb ich mehr oder weniger im Alleingang den ersten umfassenden Kompetenzrahmen für Data Literacy3, der den Ausschlag dafür gab, dass ich im Jahr 2021 die ehemalige Bundeskanzlerin Angela Merkel traf und drei Jahre später Papst Franziskus.
Am 13. März 2020, dem besagten Beginn meiner Reise, meldet sich ein großer bayerischer Automobilhersteller. Seit zwei Jahren haben wir mit ihm einen Rahmenvertrag, der uns jeden Monat eine planbare Summe einbringt. Bis dahin jedenfalls. Denn jetzt herrscht Corona, und die Türen sind für Externe verschlossen. Am Montag darauf schreibt uns der zweite Großkunde, eine Versicherung: »Berater dürfen die Gebäude nicht mehr betreten, Remote-Arbeit ist nicht vorgesehen.« Dann bricht das nächste Standbein weg: Schulungen, die wir seit Monaten akquiriert und vorbereitet haben, werden abgesagt, weil es keine technischen Möglichkeiten gibt, sie per Videokonferenz durchzuführen. Außerdem haben unsere Auftraggeber jetzt ganz andere Probleme als die mangelnden Statistikkompetenzen ihrer Mitarbeiter.
In den folgenden Tagen werden die Nachrichten immer schlimmer. Ich spüre Panik. Was sollen wir nur machen? Braucht denn niemand mehr Statistik? Oder anders gefragt: Braucht eigentlich niemand seriöse Statistik?
Der Zukunftsforscher John Naisbitt hat 1982 in seinem Buch Megatrends geschrieben: »Wir ertrinken in Informationen und hungern nach Wissen.« In der Corona-Krise überfluten mit einem Mal Statistiken das Land: Fallzahlen, Inzidenzen, Reproduktionsraten. Sie dominieren die Schlagzeilen, bestimmen Maßnahmen, Diskussionen, Ängste. Am 18. März 2020 halte ich es nicht mehr aus. Ich muss mich ablenken von den quälenden Gedanken, dass mein Unternehmen womöglich bald nicht mehr existiert. Statt in düsteren Prognosen zu versinken, wie lange uns das Geld noch reichen wird, prüfe ich die verfügbaren Informationen zu den Corona-Fällen. Es ist für mich offensichtlich, dass die veröffentlichten Statistiken auf völlig ungeeigneten Daten beruhen und daher wenig zum Wissen über die Ausbreitung des Virus beitragen können. Denn getestet werden zu diesem Zeitpunkt in erster Linie Menschen mit Symptomen – wer keine hat, kommt in den offiziellen Zahlen gar nicht vor.
Ich bin überzeugt: Das muss besser gehen. Mit einem Freund und Kollegen schreibe ich ein Plädoyer für einen vernünftigen Umgang mit Statistik, um datengestützte Entscheidungen zu treffen. Zwei Tage später erscheint unser Beitrag auf dem kontroversen Online-Portal Tichys Einblick4, dessen leitender Redakteur mein Onkel ist. Welche Folgen das haben könnte, darüber habe ich nicht nachgedacht – die Botschaft musste doch raus! Statistik kann helfen!
In der folgenden Nacht finde ich kaum Schlaf, weil mich die Idee, Statistik zum Wohl unseres Landes einzusetzen, nicht mehr loslässt. Anstatt uns von verzerrten Zahlen treiben zu lassen, könnten wir eine repräsentative Zufallsstichprobe aus der Bevölkerung testen – symptomunabhängig, so wie es Island macht. Damit ließe sich seriös hochrechnen, wie stark das Virus schon verbreitet ist und wie schnell es sich ausbreitet. Mit meinem Kollegen schreibe ich ein Konzept für die Stadt München und frage einen Freund im Stadtrat, ob wir darüber einmal sprechen können. Doch die Antwort ist ernüchternd: Obwohl im Süden von München ein großes Pharmaunternehmen Corona-Tests produziert, gibt es nicht genug davon, weil sie exportiert werden. So absurd es klingt – wir haben noch nicht einmal ein Erkenntnisproblem, sondern ein handfestes (Daten-)Produktionsproblem.
Merkwürdigerweise sind die Reaktionen eher verhalten. Ich kann mir gar nicht erklären, warum niemand sonst von dem Gedanken begeistert ist, gute Daten bereitzustellen. Heißt es nicht, Daten seien das neue Öl? Gilt das in einer Krise nicht? Ich muss etwas tun.
Am 22. März veröffentliche ich eine Petition auf dem Portal Change.org5 und fordere den bayerischen Ministerpräsidenten auf, sich der Sache anzunehmen: »Führen Sie systematisch repräsentative SARS-CoV-2-Tests durch, um die Pandemie zu stoppen!« Innerhalb weniger Tage unterschreiben Tausende Menschen die Petition. Markus Söder ist nicht dabei. Pausenlos drücke ich den Reload-Button der Webseite, völlig berauscht vom Erfolg. Und gleichzeitig kriecht die Angst in mir hoch: Will ich diese Aufmerksamkeit überhaupt? Jeder zynische Kommentar – und daran soll es in den nächsten Tagen, Wochen und Monaten nicht mangeln – untergräbt mein Selbstbewusstsein. Ganz schön naiv, oder?
Dann greifen die ersten Medien das Thema auf. Focus Online bittet mich um einen Gastbeitrag.6 Es bleibt nicht bei einem, hinzu kommen Interviewanfragen in Radio und Fernsehen. Ich fange an, die Beiträge auf meinem LinkedIn-Profil zu teilen, wo ich zuvor eher als stille Mitleserin unterwegs war. Plötzlich bin ich sichtbar. Die Kommentare sind, nun ja, aufschlussreich. »Wer ist die überhaupt?« – »Marketing für die eigene Firma!« – »Sie wollen sich doch nur profilieren.« Und manchmal auch: »Wer so hübsch ist, darf ja ruhig was fordern.«7 Als wäre LinkedIn eine Dating-Plattform. So ist das offenbar, wenn man sich als Frau im Netz zu politischen Themen äußert. Aber allmählich gewöhne ich mich daran, eine Stimme zu haben – und die Gegner wohl auch. Im August 2020 gebe ich für die BILD-Zeitung eine Prognose darüber ab, mit welchen Fallzahlen man im Herbst werde rechnen müssen. Die Reaktion: »Panikmache!« Ein anonymer Leser schreibt uns eine E-Mail: »Ihre Chefin redet sich um Kopf und Kragen!« Im Oktober 2020 trifft meine Prognose ein. BILD schreibt: »Das ist die Statistikerin, die im August die Fallzahlen vorausgesagt hat!«8
LinkedIn ernennt mich zur Top Voice, zusammen mit dem Investor Carsten Maschmeyer, dem ehemaligen Bundeskanzler Gerhard Schröder, dem Bundesgesundheitsminister Jens Spahn und dem Fußballstar Thomas Müller. Ich schreibe und schreibe, lege mich mit jedem an, der mir widerspricht. Zu sehr bin ich emotional involviert, immer noch in der Hoffnung, dass Deutschland zu einem Land der Daten und Denker wird, dass die Statistik endlich als das wahrgenommen wird, was der indische Statistiker C. R. Rao ein »Mittel zur Entscheidungsfindung unter Unsicherheit«9 nennt.
Im Herbst 2021 lädt mich Servus TV zu meiner ersten Talkshow10 ein. Ich soll einschätzen, wie sich die Fallzahlen im zweiten Corona-Winter entwickeln könnten. Akribisch bereite ich mich auf die Sendung vor, nur nicht darauf, dass zwei Corona-Leugner ihre eigenen Zahlen dazu mitbringen. Ich versuche sachlich zu bleiben, zu erklären, was eine Stichprobe ist, was ein exponentieller Verlauf bedeutet, warum Testanzahl und Fallzahl zusammengehören. Jedes zweite Wort wird mir im Mund herumgedreht. Als ich sage, dass wir die Daten nicht für vorausschauende Planung genutzt hätten und daher in der nächsten Welle wieder nur im Blindflug unterwegs seien, eskaliert die Diskussion völlig. Danach bin ich fix und fertig. Und mein Postfach ist voll: mit Hassmails, aber auch mit Danksagungen und neuen Interviewanfragen. Auf Twitter/X werde ich gefeiert, verspottet, zitiert, beschimpft. Beim Vorwurf, ich sei eine »Kinderschänderin und Faschistin«, ist mein Maß voll. Zum ersten Mal gehe ich wegen einer Nachricht zur Polizei und erstatte Anzeige, obwohl mir viele davon abgeraten haben. Fast zwei Jahre später wird der Absender verurteilt.
Notizen aus der Praxis:11 Schluss mit den Eminenz-basierten Entscheidungen
Irit Nachtigall macht Medizin verständlich. Sie ist Professorin für Infektiologie und Immunologie an der Medical School Berlin und leitet die Abteilung für Translationale Forschung, Lehre und Kooperation bei Vivantes. In unserem Podcast DatenDurchblick lernen wir von- und miteinander über Statistik, Daten und evidenzbasierte Medizin.
»Als ich in der Anästhesie anfing, direkt nach meinem Studium, war die evidenzbasierte Medizin noch in den Kinderschuhen. Je nachdem, welcher Oberarzt oder welche Oberärztin in den Saal kam, konnte alles falsch oder alles richtig sein. Es herrschten Eminenz und ›Das haben wir schon immer so gemacht‹. In den nächsten Jahren wurde das anders, immer mehr wurde auf Evidenz, also datengestützte Medizin gesetzt.
Leider ist es aber auch heute noch so, dass Menschen ohne Kenntnis von Statistik einfach Daten veröffentlichen und andere den lautesten Rufern blind hinterherlaufen. Um helfende Medizin zu machen, braucht es die Kompetenz, Daten und vor allem ihre Auswertung zu verstehen. Sonst kostet das im schlimmsten Fall sogar Leben.«
Ihre Ratschläge an Sie als Führungskraft:
Fördern Sie Datenkompetenz auf allen Ebenen. Führungskräfte sollten sicherstellen, dass ihr Team in Statistik geschult ist oder Zugang zu professioneller Analyse hat.
Vertrauen Sie nicht der Lautstärke, sondern der Evidenz. Führung bedeutet, sich nicht von Meinungen, sondern von validen Zahlen leiten zu lassen.
Stärken Sie evidenzbasiertes Denken als Kulturprinzip. Das Verständnis für Studienqualität, methodische Sorgfalt und die Grenzen von Daten gehört in den Alltag jeder Organisation, um langfristig gute und verantwortliche Entscheidungen zu ermöglichen.
Plötzlich verstehe ich, was es bedeutet, Daten nicht nur zu analysieren, sondern öffentlich für ihre Botschaft einzutreten. Ich habe »Skin in the Game«. Man kann mit Daten Haltung zeigen – und damit etwas bewegen, wenn man bereit ist, eine Angriffsfläche zu bieten, wenn es darauf ankommt. Denn Daten sind nicht neutral. Sie sind ein Mittel zur Macht – zur Aufklärung oder zur Manipulation. Ein Mittel, das Wahrnehmung, Meinungen und Politik verändert. Und ein scharfes Schwert, wenn sie missbraucht werden. Ein Missbrauch von Daten und Statistiken ist im Kern ein Missbrauch von Macht. Daher ist der verantwortungsbewusste Umgang mit Daten – und den Werkzeugen, die sie nutzen, insbesondere künstliche Intelligenz (KI) – keine technische, sondern eine ethische Aufgabe, vor der Sie als Führungskraft heute und in Zukunft stehen. Die Fragen, die Sie stellen, bestimmen Ihren Blick auf die Daten. Die Daten bestimmen die Wahl der Werkzeuge für ihre Analyse. Von den Werkzeugen hängt es ab, welche Prognosen Ihnen zur Verfügung stehen, und diese Prognosen leiten Ihr Handeln. Sie verändern die Welt.
In seinem Buch Out of the Crisis, das längst zu den Klassikern der Management-Literatur gehört, schreibt W. Edwards Deming: »Die Hauptaufgabe einer Führungskraft ist es, Prognosen zu machen.« Sie als Führungskraft müssen wissen:
Wozu brauchen Sie diese Prognosen? Was ist das richtige Ziel?
Welche Daten und Werkzeuge setzen Sie zu ihrer Gewinnung ein?
Wie leiten Sie aus den Analysen und Prognosen Entscheidungen und Handlungen ab?
Wie tun Sie das Richtige, um dieses Ziel zu erreichen?
Diese vier Punkte – Zielsetzung, Daten, Analyse, Entscheidung – bilden den roten Faden meiner Überlegungen. Aber ich muss Sie warnen: Die Macht der Daten zu nutzen ist nicht bequem. Deming, der als Statistiker mit dem Konzept des Total Quality Managements das Denken unzähliger Manager auf den Kopf gestellt hat, macht unmissverständlich klar: »Die Furchtsamen und Zögerlichen und die Menschen, die schnelle Ergebnisse erwarten, sind zur Enttäuschung verdammt.«
Ich bin seit fast 25 Jahren Statistikerin und Unternehmerin. Fast 25 Jahre lang habe ich Machtinstrumente für andere bereitgestellt. Leicht war es selten, furchtsam und zögerlich war ich oft. Die Pandemie hat mir nicht nur beruflich alles abverlangt. Sie hat mir gezeigt, wie schnell Daten zur Waffe werden können und wie wichtig es ist, mit ihnen verantwortungsvoll umzugehen. Diese Zeit war für mich nicht nur fachlich eine Grenzerfahrung, sondern auch persönlich ein Wendepunkt. Ich hatte plötzlich eine Stimme in einer Debatte, die über das Fachliche hinausging. Und ich musste lernen, diese Stimme zu nutzen – engagiert, aber ohne zu missionieren. Denn es ist ein schmaler Grat zwischen Aufklärung und Selbstvergewisserung. Besonders, wenn einem – ob man will oder nicht – auf einmal eine moralische Deutungshoheit zugeschrieben wird, nur weil man Statistiken einordnen kann.
Dabei war mein Anliegen nie, recht zu haben, sondern dafür zu sorgen, dass wir in dieser Krise nicht an der Wirklichkeit vorbeientscheiden. Dass wir differenzieren statt zu polarisieren. Dass wir Daten nicht dazu verwenden, unsere Narrative zu bestätigen, sondern um unsere Entscheidungen zu verbessern. Wenn schon niemand genau weiß, wie es weitergeht – dann sollten wir wenigstens wissen, was wir wissen können und was nicht.
Dass ich damit nicht nur Zustimmung ernten würde, war mir klar. Aber wie stark Emotionen hochkochen, wenn es einfach nur um Zahlen geht, hätte ich nicht erwartet. Ich glaube, das liegt auch daran, dass Daten heute oft mit einer falschen Autorität auftreten – als wären sie unbestechlich und objektiv. Dabei sind sie das Ergebnis menschlicher Entscheidungen: Wer erhebt was, warum, mit welchen Zielen, unter welchen Annahmen? Statistik ist nicht neutral – sie ist politisch. Und jeder, der mit ihr arbeitet, ist Teil dieses politischen Raums.
Für mich bedeutet das eine große Verantwortung, aber auch eine große Chance, Dinge zu bewegen. Nicht als Aktivistin, sondern als Expertin, die es gewohnt ist, mit Risiko und Unsicherheit zu arbeiten. Genau das ist aus meiner Sicht die zentrale Kompetenz für Führungskräfte in der datengetriebenen Welt: mit Ambivalenz umzugehen, Komplexität zu reduzieren, ohne zu simplifizieren. Und Entscheidungen zu treffen, die effizient und zugleich ethisch tragfähig sind. Um zu führen, brauchen Sie einen Kompass. Im Zeitalter von KI stellt Datenkompetenz diesen Kompass dar. Sie beginnt mit der Bereitschaft, genau hinzusehen und das Naheliegende kritisch zu hinterfragen. Damit Sie Ihrem Job, gute Prognosen für gute Entscheidungen zu treffen, gerecht werden können.
Gute Entscheidungen erkennt man nicht nur daran, dass sie sich richtig anfühlen, sondern daran, dass sie mit guten Gründen getroffen wurden, auf Basis von Daten, die mithilfe von Algorithmen zu Faktenwissen werden. Diese Gründe zu erkennen, zu prüfen und transparent zu machen, und nicht zuletzt zu entscheiden, wann Daten Ihnen nicht weiterhelfen und Sie Ihre Intuition brauchen – dabei hilft Ihnen Data Literacy, also Datenkompetenz in einem sehr breiten Sinne. Nicht als technisches Add-on, nicht als bloßes Toolset oder Skillset, sondern vor allem als Mindset wird sie zur Kernkompetenz für die Gestaltung der Zukunft.
Als ich Gunter Sachs am 5. Juni 2008 zum ersten Mal persönlich begegne, trage ich einen weiten, cremeweißen Hosenanzug, lehne an einem kleinen Bistrotisch und versuche, die Übelkeit zu unterdrücken, die beim Gedanken an unseren bevorstehenden Privatflug in mir aufsteigt. »Das ist also unsere Statistikerin«, sagt er, »Sie sind ja ganz außerordentlich engagiert.« Er mustert anerkennend meinen enormen Babybauch, den ich noch ganze 19 Tage vor mir hertragen werde.
Fast zwei Jahre hatte es gedauert, bis aus der intensiven Zusammenarbeit mit Gunter Sachs auch ein persönlicher Kontakt wurde. Wie es dazu kam? Am späten Nachmittag des 5. Juli 2006 klingelte mein Telefon. Ein Anruf mit unbekannter Nummer. Ich erinnere mich nur in Bruchstücken an das Gespräch, weil mir nach wenigen Sekunden vor Aufregung die Knie zitterten: Gunter Sachs wollte am nächsten Tag mit mir zu Mittag essen, und ich sollte ihm dabei erklären, wie wahrscheinlich ein Fußball das Tor trifft, wenn man es um ein paar Zentimeter vergrößert. Den Rest des Tages verbrachte ich damit, meinen Kleiderschrank zu analysieren. Erst als ich am nächsten Morgen erfuhr, dass sich die Pläne geändert hatten und das Treffen ausfallen würde, fiel mir auf, dass ich eigentlich gar kein geeignetes statistisches Modell für Fußballtore im Kopf hatte.
Im Juni 2008, zwei Jahre später, hat sich das Problem der Kleiderwahl deutlich vereinfacht. Im neunten Schwangerschaftsmonat passt mir schlicht nicht mehr vieles, das dem Anlass einigermaßen angemessen scheint. Wir wollen in den idyllischen Schweizer Gebirgsort Neuchâtel fliegen, um mit den Experten des dort ansässigen Bundesamts für Statistik über die Datenschätze zu sprechen, die in ihren Computern und Archiven lagern. Wenigstens muss ich mir um Fußballtore keine Gedanken mehr machen. Stattdessen bin ich beauftragt, ein Thema statistisch zu untersuchen, das mindestens ebenso hitzige Diskussionen anstößt wie die Frage, ob der Fußball im Tor war: Astrologie.
Wie prüft man, ob an Astrologie etwas dran ist? Jeder, der schon einmal ein Horoskop gelesen hat, weiß: Irgendwas stimmt immer. Es ist ein bisschen wie mit den Texten, die große Sprachmodelle beziehungsweise Large Language Models wie ChatGPT erzeugen. Selbst dann, wenn sie größtenteils halluziniert sind, enthalten sie so viele Ambiguitäten, dass sie zumindest so klingen, als basierten sie auf Tatsachen und nicht bloß auf Wahrscheinlichkeiten.
Astrologie ist lange Zeit eine anerkannte Methode, sich in einer Welt voller Unsicherheit und schwer erklärbarer Phänomene zu orientieren. In ihrem Zweck ähnelt sie daher der Methodik wissenschaftlicher Entdeckungen. Bekannte Wissenschaftler wie Johannes Kepler, der Entdecker der Planetenbahnen, setzten sich ernsthaft mit Astrologie auseinander und versuchten sogar, astrologische Gesetze in der Form mathematischer Gleichungen zu formulieren. Solche Gleichungen sind theoretische Modelle realer Wirkzusammenhänge, und theoretische Modelle lassen sich überprüfen, indem man Daten sammelt und analysiert, ob sich in ihnen Muster finden, die mit den behaupteten Gleichungen beschrieben werden können. Kurz gesagt: Man stellt eine Theorie auf, führt ein Experiment durch, modifiziert die Theorie und führt ein neues Experiment durch – so lange, bis die Theorie durch Daten bestätigt wird. Kepler fand mit dieser Methode sein drittes Gesetz über die Bewegung der Planeten. Zuerst vermutete er, dass sich die Umlaufzeiten proportional zu den Quadraten ihres Abstands zur Sonne verhalten. Aber seine Beobachtungen passten nicht so richtig dazu. Also sammelte und analysierte er zehn Jahre lang weitere Daten, bis er das richtige Modell dafür fand: Die Quadrate der Umlaufzeiten verhalten sich proportional zu den Kuben der Abstände!
Modelle sind formale Darstellungen von Behauptungen, die sich als wahr oder falsch herausstellen können. Überprüfbare Behauptungen nennen wir Hypothesen. Sie können sich auf Muster beziehen oder auf Ursache-Wirkungs-Zusammenhänge. Hypothesen über Muster treffen Aussagen über Korrelationen, also darüber, ob bestimmte Strukturen Zufallsprodukte sind oder auf systematische Abweichungen zwischen verschiedenen Gruppen hinweisen: Gibt es Kundentypen, die regelmäßig ein unterschiedliches Kaufverhalten zeigen? Verdienen Männer und Frauen in einem Unternehmen das gleiche Gehalt, wenn sie bei gleicher Qualifikation einen vergleichbaren Job ausüben? Sind die Mitarbeiter im Vertrieb häufiger krank als diejenigen im Controlling? Hypothesen über Ursache-Wirkungs-Zusammenhänge treffen Aussagen über Kausalitäten: Weil das Gravitationsgesetz gilt, fallen Äpfel nach unten und kreisen die Planeten auf ihren Bahnen (stimmt). Wegen der Einführung einer Zuckersteuer gibt es in Mexiko weniger übergewichtige Kinder als früher (stimmt nicht). Kausal-Hypothesen lassen sich durch sogenannte geplante Experimente prüfen. In bestimmten Fällen, den natürlichen Experimenten, klappt der Nachweis von Kausalität auch mit Beobachtungsdaten – eine anspruchsvolle Methodik, für die im Jahr 2021 der Wirtschaftsnobelpreis verliehen wurde.
Für die Astrologie fand Kepler keine Gesetze. Lieber blieb er im Ungefähren: »Die Sterne zwingen nicht, sie machen nur geneigt.« Wenn überhaupt, liefert Astrologie also Wahrscheinlichkeiten, aber keine Gewissheiten. Das gilt auch für die Statistik. Sie ist der Versuch, mithilfe von fehlerbehafteten Daten im Nebel des Unbekannten zu navigieren. Sie ist kein sicheres Mittel zur absoluten Wahrheit, sondern eine Kombination aus Wissenschaft, Handwerk und Kunst, um Wahr-Scheinlichkeiten aus unvollständigen Informationen zu gewinnen.
Doch wie kommt es dazu? Wie wird aus einem Zahlenhandwerk eine Wissenschaft, die eine der wesentlichen Grundlagen von KI darstellt? Und was sagt uns das über die Art, wie wir in Zukunft führen und entscheiden sollten?
Die Anfänge der Statistik reichen mindestens zwei Jahrtausende zurück. Zu dieser Zeit wird Statistik noch nicht als Wissenschaft verstanden, sondern als Verwaltungsaufgabe. Staaten wollten wissen, wie viele Männer sie in den Krieg schicken können, wie viele Steuern sie erheben dürfen – und begannen, die Bevölkerung zu zählen. Zensuserhebungen in Ägypten, Babylon und dem Römischen Reich hatten vor allem eine Funktion: Zähle und herrsche. Statistik war Machtsicherung in Tabellenform. Wie das zu funktionieren hat, beschreibt eindrücklich das Arthashastra, ein Staatsrechtslehrbuch aus dem alten Indien:
»Nachdem er [der Dorfbuchhalter] die Häuser als steuerpflichtig oder nicht steuerpflichtig nummeriert hat, soll er nicht nur die Gesamtzahl der Einwohner aller vier Kasten in jedem Dorf registrieren, sondern auch die genaue Zahl der Ackerbauern, Kuhhirten, Kaufleute, Handwerker, Arbeiter, Sklaven und zwei- und vierbeinigen Tiere festhalten und gleichzeitig den Betrag an Gold, freier Arbeit, Maut und Bußgeldern festlegen, der von ihm (jedem Haus) erhoben werden kann. […] Als Hausbesitzer getarnte Spione […] sollen die Gültigkeit der Berichte (der Dorf- und Bezirksbeamten) über die Felder, Häuser und Familien jedes Dorfes überprüfen. […] Ebenso sollen Spione unter dem Deckmantel von Kaufleuten die Menge und den Preis der königlichen Waren […] feststellen. […] In ähnlicher Weise sollen Spione unter dem Deckmantel von Asketen […] Informationen über das ehrliche oder unehrliche Vorgehen von Landwirten, Kuhhirten, Kaufleuten und Leitern von Regierungsabteilungen sammeln.«12
Ein Überwachungsstaat, der verdeckt Daten sammelt, um damit Betrug aufzudecken, Preise zu kontrollieren und sogar Social Scoring zu betreiben – was Sie womöglich bis jetzt für eine Erfindung der Kommunistischen Partei Chinas hielten, wird bereits vor fast 2 000 Jahren in einem Klassiker der politischen Weltliteratur dokumentiert. Der Zweck, damals wie heute: Macht durch Daten.
Europa zeigte sich schon damals etwas zögerlicher, was die Nutzung von Daten anging. Erst 1538 ordnete König Heinrich VIII. auf Initiative von Thomas Cromwell, 1. Earl of Essex, an, dass in ganz England Kirchenbücher zu führen seien, in denen wöchentlich die Taufen, Eheschließungen und Bestattungen zu verzeichnen sind. Cromwell ahnte, dass Lebensdauer und Tod nicht vom Zufall allein bestimmt sein können, sondern einem naturgesetzlichen Zusammenhang unterliegen müssen. Bedauerlicherweise wurde er schon zwei Jahre später hingerichtet (ein zu der Zeit und unter den handelnden Personen recht übliches Instrument der Durchsetzung von Interessen), und in der Folge wurden die Register nur sehr unzureichend befüllt. Entsprechend misstrauisch hinsichtlich der Datenqualität amtlicher Register äußerte sich im Jahr 1929 der britische Statistiker und Steuerexperte Lord Josiah Stamp – ausgerechnet referenzierend auf den Datensammler im alten Indien:
»Die Regierung ist sehr daran interessiert, Statistiken anzuhäufen. Sie sammeln sie, addieren sie, heben sie auf die x-te Potenz, ziehen die Kubikwurzel und erstellen wunderbare Diagramme. Aber man darf nie vergessen, dass jede dieser Zahlen in erster Linie vom chowky dar (Dorfwächter in Indien) stammt, der einfach aufschreibt, was ihm verdammt noch mal gefällt.«13
Manchmal hat man allerdings keine Wahl – man muss die Daten nehmen, die man kriegen kann. 125 Jahre nach Cromwells Tod zwang ein noch mächtigerer Gegner die Menschen dazu, in den Daten nach Zusammenhängen zu suchen und aus Zahlen Entscheidungsgrundlagen zu destillieren. Zwei Schlüsselfiguren dieser bemerkenswerten Epoche waren ein Arzt und ein Kurzwarenhändler aus London.
London, Mitte des 17. Jahrhunderts. Gerade erst ist der Bürgerkrieg beendet, Oliver Cromwell – ein Urgroßneffe von Thomas Cromwell – hat seine Strafzüge durch Irland beendet. An seiner Seite: Generalarzt William Petty. Aus armen Verhältnissen stammend, hat er sich mit Fleiß und Begabung hochgearbeitet, hat neben alten Sprachen auch Mathematik, Astronomie und Medizin studiert. Sogar eine Tote soll er zum Leben erweckt haben. Wie praktisch für einen Militärarzt! Aber Petty hat ein weiteres, sehr nützliches Talent: Er hat ein Händchen für Daten. 1856 vermisst und kartiert er ganz Irland in nur 13 Monaten. Das besetzte Land soll aufgeteilt werden, damit Cromwell seine Gläubiger befriedigen kann. Auch Petty kommt zu Grundbesitz – unter mutmaßlich dubiosen Umständen. Die Zweifel an der Rechtmäßigkeit seines neuen Reichtums lassen seine politische Karriere scheitern. Nicht jedoch seinen politischen Ehrgeiz.
Am 28. November 1660 gründet er zusammen mit einigen weiteren Gelehrten die Royal Society, eine nationale Akademie der Wissenschaften. Ihr Ziel: die Verbesserung der Naturerkenntnis. Ihr Motto: »Nullius in verba«, nach niemandes Worten. Heute würden wir sagen: Querköpfe. Inspiriert sind sie von Francis Bacons »Wissen ist Macht«. Und Wissen ist das, was empirisch untermauert ist: Nur wer die Ursache kennt, kann sich auch die Wirkung zunutze machen. Schluss soll sein mit philosophischen Spekulationen, Schluss mit der Wissenschaft im Lehnstuhl! Nicht Worte zählen, sondern Daten.
Daten, so erkennt Petty rasch, sind der Schlüssel zur Macht. Denn schon ist die nächste Bedrohung im Anzug: die Pest. Die tödliche Seuche ist bislang zwar erst in den Niederlanden aufgetreten, doch ihr bedrohlicher Hauch dringt mit den Handelsschiffen bereits nach Großbritannien. König Charles II. sucht verzweifelt nach einem Frühwarnsystem. Und ein gewisser John Graunt bekommt Wind davon. Unterstützt von seinem Freund Petty beginnt er, die wöchentlich veröffentlichten Sterbelisten zu analysieren, zählt die Toten und vermisst die Lebensdauern – mit der Akribie eines Händlers, der davon überzeugt ist, dass das, was man zählen kann, nicht lügt.
1662 veröffentlicht Graunt sein Werk Natürliche und politische Beobachtungen zu den Sterblichkeitsziffern. Es handelt sich um eine detaillierte Auswertung der Todesursachen, Sterberaten, Geburten und Lebensdauern in London. Sein bahnbrechendes Ergebnis: Krankheiten verlaufen nicht zufällig, sie folgen Mustern. Infektionswellen ebben in bestimmten Abständen ab, die Kindersterblichkeit ist erschreckend konstant und das Stadtleben (lebens-)gefährlicher als das auf dem Land. Seine Tabellen können zwar nicht verhindern, dass die Große Pest von England kurz darauf fast ein Fünftel der Londoner Stadtbevölkerung dahinrafft. Aber sie schärfen den Blick für das, was Statistik bis heute leistet: Sie macht die unsichtbaren Muster des Lebens sichtbar.
Der Titel Politische Beobachtungen ist mit Bedacht gewählt, denn das Werk hat Sprengkraft. Wer die Verteilung von Krankheit und Tod versteht, der weiß, wie die soziale und wirtschaftliche Lage im Land aussieht. Der Arzt und der Kurzwarenhändler, sie ziehen nicht nur Schlüsse, wie viele Männer im Kriegsfall zur Verfügung stehen, sondern auch, wie viele Menschen sich mit unnötigen Dingen befassen – dazu zählen ihrer Meinung nach insbesondere Akademiker, die nur theoretisch und nicht empirisch arbeiten. Und sie machen Vorschläge zur Verbesserung der Datenerfassung, denn präzise Statistik sei die Essenz einer guten, sicheren und leichten Regierungstätigkeit.
Irgendwann in den folgenden drei bis fünf Jahren verfasst Petty die Schrift Verbum Sapienti – über den Wert des Menschen. Veröffentlicht wird der Text erst knapp 30 Jahre später. Es ist der erste Versuch, so etwas wie ein Bruttoinlandsprodukt zu berechnen – oder besser: grob zu schätzen. Denn die Zahlen sind hoch spekulativ, bestenfalls illustrativ. Doch sie sind zugleich revolutionär, schließlich behauptet Petty: Nur rund 40 Prozent des englischen Volkseinkommens werde aus Vermögen, meist Grundbesitz, erwirtschaftet. Ganze 60 Prozent seien das Resultat von Arbeit. Vor Petty hat noch niemand Arbeit als Produktionsfaktor betrachtet, was Karl Marx und Friedrich Engels dazu veranlassen wird, ihn als den Begründer der modernen Ökonomie anzusehen.
Was Petty offiziell bezweckt, ist, das Steuersystem zu verändern. Er behauptet in seinem Verbum Sapienti und, noch wesentlich verschärft, in seiner 1676 erschienenen Politischen Arithmetik, die englische Regierung könne deutlich mehr Einnahmen erzielen, wenn sie nicht nur Grundbesitz besteuern würde, sondern auch Arbeit. Damit könne England seine wirtschaftliche und militärische Macht im Vergleich mit den verfeindeten Nachbarn Frankreich und Holland deutlich ausbauen. Inoffiziell ging es Petty jedoch wohl mindestens genauso um seine persönlichen Interessen. Er, vormals arm und durch Grundbesitz vermögend geworden, will mutmaßlich Steuern sparen. Wie praktisch, dass er passende Zahlen präsentieren kann.
William Petty ist der Urvater des Bruttoinlandsprodukts, und John Graunts Entdeckungen bestimmen heute noch die Art, wie moderne Sterbetafeln konstruiert und berechnet werden. Als ich mit Gunter Sachs im Bundesamt für Statistik in Neuchâtel zu Besuch bin und wir uns nach den Sterbedaten erkundigen, sagt einer der Schweizer Statistiker: »Ein Toter ist eine sichere Sache, damit kann man arbeiten.« Ein makabrer Satz, der zeigt: Statistik beginnt dort, wo das Anekdotische endet.
Etwas mehr als 200 Jahre nach Petty und Graunt tobt der Krimkrieg. Florence Nightingale, gelernte Krankenschwester, findet katastrophale Zustände in den britischen Lazaretten vor: mehr Tote durch Infektionskrankheiten als durch Schlachten. Wie John Graunt greift sie zum Naheliegenden: Sie zählt. Sie kombiniert Fragebögen, eigene Beobachtungen und Regierungsberichte. Heute würden wir sagen: Sie weiß heterogene Datenquellen virtuos zu nutzen, klüger als so manche KI. Mit akribischen Aufzeichnungen über Todesursachen, Hygienestandards und Zeitverläufe erstellt sie nicht nur Tabellen, sondern eindrucksvolle Visualisierungen, darunter ihr berühmtes »Rose Chart«, auch »Polar-Area-Diagramm« genannt. In diesem Diagramm wird auf einen Blick klar: Die meisten Soldaten sterben an vermeidbaren Infektionen. Das Resultat: Die britische Regierung reformiert das Sanitätswesen und senkt so die Todesrate von 40 auf 2 Prozent.
Nightingale appelliert mit ihren Statistiken daran, dass der Zugang zu Daten nicht nur Macht verschafft, sondern auch zur Verantwortung verpflichtet. Sie sucht nach Ursache-Wirkungs-Beziehungen, um daraus das richtige Handeln in einer Krise abzuleiten: Wie lässt sich die Sterblichkeit in Lazaretten senken – und zwar schnell und nachhaltig? Ihre Reformen retten Zehntausende Leben und stärken damit die Einsatzfähigkeit der britischen Armee. Die Menschheit gewinnt ein Stück Macht über Krankheit und Tod, über das Unsichtbare, das bisher als Schicksal galt. Für den Statistiker Karl Pearson ist sie die britische Jeanne d’Arc, getrieben von der religiösen Überzeugung, man müsse Statistiken studieren, um Gottes Gedanken zu verstehen, denn sie seien die Maße seiner Absicht.
Ein namenloser Dorfbuchhalter, ein Händler, ein Arzt und eine Krankenschwester als Protagonisten der Datengeschichte: Bisher sah es ganz danach aus, als sei Statistik vor allem Handwerk, entwickelt und perfektioniert, um existenzielle Fragen rund um Geld oder Leben zu beantworten. Doch mittlerweile beschäftigte sich auch die Wissenschaft intensiv mit Statistik. Es ging dabei nicht gerade um staatstragende Probleme, aber zumindest um Cash: Der französische Mathematiker Abraham de Moivre entwickelte im 18. Jahrhundert eine Theorie der Wahrscheinlichkeit, um Gewinne im Glücksspiel zu prognostizieren.
Notizen aus der Praxis: Zwischen Daten und Deutung
Neşe Sevsay-Tegethoff ist eine Zukunftsnavigatorin. Sie lehrt als Professorin für spezialisierte Sozioökonomie an der Hochschule Esslingen. Hier schreibt sie generationenübergreifend mit ihrer Tochter, der Zonta-Preisträgerin Selin Tegethoff:
»Der Mathematiker Al-Chwarizmi, von dessen Namen sich der Begriff ›Algorithmus‹ ableitet, vermittelte bereits im 9. Jahrhundert das indisch-arabische Zahlensystem nach Europa. Er hielt Beobachtungen in Form von Zahlen fest und leitete aus deren Verdichtung Gesetzmäßigkeiten ab. Das Sammeln und Auswerten von Daten gehört seitdem zum Kerngegenstand wissenschaftlichen Arbeitens. Doch wem rechnen wir die gewonnenen Erkenntnisse zu, wenn Recherchen, Analysen und Berichte mit KI-generierten Prompts erstellt, sprachliche Strukturen und Techniken zunehmend standardisiert werden?
Wir haben es hier mit soziotechnischen Entwicklungen zu tun und damit mit der Frage: Wie wollen wir lernen, arbeiten und leben mit diesen Errungenschaften und welche Aufgabe adressieren wir an die KI? Die Daten, die Al-Chwarizmi einst erhoben hat, sagten für sich genommen nichts aus. Erst durch die Kontextualisierung war es möglich, aus Zahlen bahnbrechende Erkenntnisse zu gewinnen.«
Aus den obigen Ausführungen können Sie folgende Gedanken für sich mitnehmen:
Technologie braucht Kontext. Daten und KI liefern keine objektiven Wahrheiten. Entscheidend ist die Fähigkeit, Zahlen zu deuten, Zusammenhänge zu erkennen und Erfahrungswissen einzubeziehen.
Data Literacy ist mehr als Technikverständnis. Wer mit datenbasierten Systemen arbeitet, muss auch deren soziale, ethische und kulturelle Auswirkungen verstehen.
Kompetenzen gilt es neu zu denken. In einer zunehmend automatisierten Welt gewinnen nicht-standardisierte, subjektivierende Handlungsweisen an Bedeutung. Fördern Sie daher das situative Urteilsvermögen.
Vormals war Statistik beschreibend; Fachleute sagen dazu »deskriptiv«. Es ging nicht darum, das individuelle Ereignis vorherzusagen, bevor es eintritt, sondern um die möglichst vollständige Abbildung dessen, was bereits eingetreten ist: Geburt, Ehe, Arbeit, Krankheit und Tod. In diesem Fall ist es günstig, die Realität umfassend zu beobachten, bevor man Schlüsse aus den Daten zieht. Beim Glücksspiel hingegen ist genau das unerwünscht: Liegen die Daten über ein Spiel erst einmal vor, dann lohnt es sich nicht mehr, sich damit zu beschäftigen.
Bis auf eine Handvoll ebenso spielfreudiger Kollegen – Chevalier de Méré, Blaise Pascal und Pierre de Fermat – war die Fachwelt zur damaligen Zeit fest davon überzeugt, dass Wahrscheinlichkeit mit mathematischen Methoden nicht untersucht werden könne. Zehn Jahre lang widmete sich de Moivre der Frage, wie man das Eintreten von Ereignissen vorhersagen kann, und legte schließlich mit seiner Lehre von den Wahrscheinlichkeiten den Grundstein für die schließende oder »induktive« Statistik. Sie lieferte den Werkzeugkasten, um aus Stichproben systematisch etwas über das Ganze zu lernen. Der Zufall, vormals göttlich, dämonisch oder von den Sternen bestimmt, wurde in Formeln gegossen. Im fortgeschrittenen Alter interessierte sich de Moivre für Sterblichkeiten und die Frage, wie man die Wahrscheinlichkeitsrechnung zur Lösung von Lebens- und Rentenversicherungsproblemen einsetzen konnte. Im Jahr 2000 wurde ein Asteroid nach ihm benannt.
Der Vermessung der Sterne widmete Pierre-Simon Marquis de Laplace fast ein Vierteljahrhundert seines Lebens. Ab 1799 arbeitete er an seiner Himmelsmechanik, die sich über lange Zeit als Standardwerk der Astronomie gehalten hat, jedoch einen prominenten Kritiker verzeichnete. Napoleon selbst soll Laplace sinngemäß gefragt haben: »Warum haben Sie dieses Buch über das Weltall geschrieben, aber nicht einmal seinen Schöpfer erwähnt?« »Diese Hypothese habe ich nicht benötigt«, lautete dessen schroffe Antwort; kurz darauf stimmte er für die Absetzung Napoleons als Kaiser von Frankreich.
Die Machtverhältnisse im Himmel und auf der Erde waren Laplace offensichtlich ziemlich egal. Daten hingegen interessierten ihn sehr. Da fiel ihm das Werk de Moivres in die Hände, und er begann seine Forschungen zur Wahrscheinlichkeitsrechnung. 1812 formulierte er seine Analytische Theorie der Wahrscheinlichkeiten, wenig später kam ihm die Idee eines »Weltgeistes«, der Vergangenheit und Zukunft kennt und alle Ereignisse determiniert. Eine frühe Vision von KI? Dass wir Menschen nicht über eine Intelligenz verfügen, »die in einem gegebenen Augenblick alle Kräfte kennt, mit denen die Welt begabt ist, und die gegenwärtige Lage der Gebilde, die sie zusammensetzen«, hielt Laplace zwar für bedauerlich. Aber er war fest davon überzeugt, dass wir durch die Beobachtung von Daten und deren statistische Analyse auf alle Zusammenhänge schließen können, denen »die Bewegungen der größten Himmelskörper und die des leichtesten Atoms« unterworfen sind.
Zu erkennen, was die Welt im Innersten zusammenhält – das lag ganz im Trend der Zeit. Goethes Faust ersehnte dieses allumfassende Wissen etwa zur selben Zeit, als Laplace seine analytische Theorie der Wahrscheinlichkeit formulierte. Knapp fünfzig Jahre später wurde Karl Pearson in London geboren. Pearson studierte Juristerei, Theologie, Philosophie, Mathematik, Physik und Goethe. »Haben Sie jemals versucht zu begreifen, dass alles in dieser Welt es wert ist, gewusst zu werden – dass kein einziges Gebiet im Universum des Studiums unwürdig ist? […] Die Menschheit scheint mir an der Schwelle einer neuen und glorreichen Entdeckung«, formulierte er im Jahr 1880 geradezu euphorisch in seinem ersten Buch Der neue Werther. Gut zehn Jahre später wurde ihm klar, dass Statistik der Schlüssel ist, um das Universum zu studieren. Zur Jahrhundertwende veröffentlichte er einen wissenschaftlichen Artikel, der ein neues statistisches Werkzeug präsentiert: den Chi-Quadrat-Test.
Der Artikel sorgte für Furore. Am Rande belegte Pearson, dass im Juni 1882 das Roulette in Monte Carlo manipuliert gewesen sein muss. In der Hauptsache zeigte er eine Methode, mit der man sehr allgemein nachweisen kann, ob Systeme mehr, als der Zufall erlaubt, vom Normalverhalten abweichen. Im Kern ging es darum, Beobachtungen mit theoretischen Zuständen eines Systems zu vergleichen, die sich durch eine sogenannte Wahrscheinlichkeitsverteilung beschreiben lassen. Je unwahrscheinlicher eine Beobachtung, umso plausibler ist es, dass jenseits des bloßen Zufalls eine systematische Kraft einwirkt. Pearsons Erkenntnis war ein echter Game-Changer. Ab diesem Moment überschlugen sich die Ereignisse. Pearson gründete 1901, gemeinsam mit den Wissenschaftlern Francis Galton und Walter Weldon, die statistische Zeitschrift Biometrika und wurde drei Jahre später Leiter eines von Galton gestifteten Forschungszentrums für junge Statistiker. Wozu all der Aufwand?
»Um aus der Statistik einen Bereich der angewandten Mathematik mit einer eigenen Technik und Nomenklatur zu machen, um Statistiker auszubilden als Wissenschaftler […] und überhaupt, um die Statistik in diesem Land von einem Spielplatz der Dilettanten und Streithähne in eine ernstzunehmende Wissenschaft zu verwandeln […].«14
Das ist geglückt. Die Statistik ist heute nicht nur eine ernst zu nehmende Wissenschaft mit eigenen Methoden und Theorien. Pearson trug enorm dazu bei, auch wenn er selbst durchaus Spaß am Streiten und Wetteifern hatte: Sein Chi-Quadrat-Test sollte endlich die Normalverteilung von ihrer unangefochten zentralen Position verdrängen. Mit der hatte sich ihr Entdecker Carl Friedrich Gauß längst seinen Platz in der Ruhmeshalle der Statistiker gesichert – freilich nicht als Dilettant, sondern als einer der berühmtesten Mathematiker, Astronomen und Wahrscheinlichkeitstheoretiker des 19. Jahrhunderts.
London 1919. Karl Pearson bietet dem damals 29-jährigen Ronald Fisher den Posten eines Chefstatistikers in seinem Forschungslabor an, das mittlerweile nach seinem Gründer, dem Universalgelehrten Francis Galton, benannt ist. Das Galton Laboratory ist die Keimzelle einiger bahnbrechender statistischer Ideen – und es wird bald zum Symbol dafür werden, wie nahe Licht und Schatten in der Wissenschaft beieinanderliegen können. Fisher lehnt ab. Denn Pearson hat zwei Jahre zuvor öffentliche Kritik an einer Idee von Fisher geäußert. Das kann Fisher nicht verzeihen, unerbittlich kämpft er gegen alle, die er der Verbreitung wissenschaftlicher Fehler verdächtigt.
Fisher leidet nicht nur unter seinem exzentrischen Charakter, sondern auch unter einer ausgeprägten Kurzsichtigkeit. Weil er nicht bei elektrischem Licht lesen darf, entwickelte er einen Großteil seiner Ideen im Kopf, statt die Literatur zu studieren. Und er bringt die Statistik in die freie Natur: zum Ackerbau. Dünger, Saatmethoden, Erntetechniken – all das muss systematisch erforscht werden. Während die moderne Landwirtschaft heute selbstverständlich mithilfe von gigantischen Mengen an Sensordaten und darauf aufsetzenden KI-Anwendungen optimiert wird, können Daten damals nur sehr mühsam und in kleinen Mengen gewonnen werden. Denn Pflanzen müssen wachsen. Das kostet viel Zeit, und wenn man einen Fehler macht, muss man auf den nächsten Frühling warten. Experimente, mit deren Hilfe die landwirtschaftliche Produktion systematisch verbessert werden kann, müssen so geplant werden, dass jeder einzelne Datenpunkt möglichst viele Informationen enthält.
Fisher konzentriert sich daher auf kleine Stichproben. Er will herausfinden, warum es zu Abweichungen vom Normalen kommt. Wie praktisch, dass 1906 ein junger Gastwissenschaftler in Pearsons Labor arbeitet, den damals ein ganz ähnliches Problem beschäftigt: William Gosset. Der ist eigentlich Lebensmittelchemiker in der Guinness-Brauerei, und Guinness steht unter enormem Wettbewerbsdruck. Das Bier muss besser werden, um die Konkurrenz zu schlagen! Das Experiment glückt – und Guinness veranlasst, sofort das gesamte verfügbare Gersten-Saatgut aufzukaufen, um Marktmacht zu gewinnen. Gosset – im Gegensatz zu Pearson und Fisher offenbar ein richtig netter Typ – darf seine Ergebnisse nur unter dem Pseudonym »Student« veröffentlichen, eine Folge der Tatsache, dass einer seiner Vorgänger unbeabsichtigt Geschäftsgeheimnisse verraten hatte.
Mit einem Augenzwinkern könnte man sagen: Bier verändert die Welt. Denn Fisher greift Gossets Arbeiten auf und entwickelt sie weiter. Der dänische Statistiker Anders Hald nennt Fisher ein »Genie, das nahezu im Alleingang die Fundamente der modernen Statistik gelegt hat«.15 Fishers Buch Das Design von Experimenten führt das Konzept der statistischen Nullhypothese ein. Bis heute ist sie der Schlüssel, um zu entscheiden, ob etwas wirklich anders ist oder nur so aussieht. Fisher konstruiert die Formeln zur Berechnung von Evidenz aus zufälligen Ereignissen und beweist damit: Man kann gute Entscheidungen treffen, auch wenn man nicht alles weiß – solange man die Unsicherheit systematisch beziffert. Sein p-Wert definiert bis heute, was im Normalbereich zufälliger Schwankung liegt und was als signifikant gilt. Ein Konzept, das Kultstatus erlangt.
Fishers Ideen werden zum Gerüst für die moderne Wissenschaft und von Gertrude Cox und William Cochran aufgegriffen. Cox gründet in den USA das erste eigenständige Universitäts-Department für experimentelle Statistik – in einem Wissenschaftsbetrieb, der wenig Platz für Frauen vorsieht. Cochran erforscht Methoden für Anwendungsgebiete wie die öffentliche Gesundheit und die Sozialpolitik. Dort basieren Studien oft auf Beobachtungsdaten, Behandlungseffekte sind schwer von weiteren Einflüssen zu trennen. Er entwickelt Verfahren, mit denen sich Verzerrungen herausrechnen und kausale Zusammenhänge dennoch abschätzen lassen, und verfasst zusammen mit Cox das Standardwerk über experimentelle Designs. 1964 erbringt er in einem offiziellen Bericht der US-Regierung den Nachweis, dass Rauchen Lungenkrebs verursacht16 – ein Zusammenhang, den Fisher noch 1950 vehement bestritten hat. Ob Fisher dafür Geld von der Tabakindustrie angenommen hat, ist nicht zweifelsfrei belegt. Sicher ist nur: Fisher ist leidenschaftlicher Pfeifenraucher und mag keine Vorschriften.
Ironischerweise legt Fisher selbst das Fundament für genau diese Studien zur Untersuchung von Ursache-Wirkungs-Beziehungen. Seine Varianzanalyse ist bald der »Leatherman« der Statistiker auf zahlreichen Anwendungsgebieten. Insbesondere die industrielle Produktion profitiert enorm von den neuen Versuchsplänen und Analyseverfahren: Der Physiker Walter A. Shewhart erfindet die statistische Prozesskontrolle, mit deren Hilfe sich Störungen in Produktionsprozessen frühzeitig erkennen und korrigieren lassen. Ihm verdanken wir den weltbekannten PDCA-Zyklus – Plan, Do, Check, Act – zur kontinuierlichen Verbesserung, auch wenn dieser Prozess später von den Japanern in »Deming-Zyklus« umbenannt wird. Genichi Taguchi, ein japanischer Ingenieur, entwickelt robuste Designs, die auch unter problematischen Versuchsbedingungen echte Einflussfaktoren vom Zufallsrauschen trennen können, und er macht den Verlust messbar, den eine Gesellschaft aufgrund schlechter Qualität zu tragen hat. Plötzlich ändert sich die Perspektive: Der Fokus richtet sich von den nüchternen Daten auf die Verantwortung für ihren Impact.
Daten, so glauben hingegen Galton und Pearson, sind nicht nur die Grundlage für Erkenntnis, sondern dienen auch der Ordnung der Welt. Galton, ein Cousin Charles Darwins, ist überzeugt: Unter der Wirkung strenger Kräfte entwickle sich ein mental und physisch überlegener Mensch, und es sei religiöse Pflicht, diese Veränderung zu unterstützen – mithilfe der Statistik. Mit Pearson zusammen prägt er die Begriffe der Korrelation und der Regression – Muster, die möglicherweise »Gottes Plan« in den Daten offenbaren. 1906 übernimmt Pearson die Leitung des Londoner Galton Laboratory. Ein Jahr später wird daraus das Galton Eugenics Laboratory. Der Name ist Programm. Die beiden Forscher konzentrieren sich immer mehr auf eine Mission: Daten und Statistik zur »rassischen Verbesserung einer Nation« zu nutzen. Galton behauptet, dass »es eine größtenteils völlig unvernünftige Sentimentalität gegenüber der schrittweisen Auslöschung einer niederen Rasse gibt«.17 Pearson sekundiert mit sozialdarwinistischem Pathos, dass eine Nation »ein homogenes Ganzes sein muss, nicht eine Mischung hochwertiger und geringwertiger Rassen«18. Statistik wird zum Werkzeug der Auslese.
Galton, Pearson und Fisher gelten als die Väter der Statistik. Und sie treten offen für die Eugenik ein. Alle drei wollen die Streuung der Gauß’schen Normalverteilung verringern, wollen weg vom Mittelmaß, das der belgische Astronom und Statistiker Adolphe Quetelet rund hundert Jahre zuvor als den idealen Durchschnittsmenschen beschrieben hat.19 Sie vertreten die Moral der Privilegierten und entwickeln statistische Methoden, um deren Privilegien zu verfestigen. Ausgerechnet Fishers berühmtester Doktorand wird eine neue Epoche einleiten. Die Epoche, in der Statistik zum Grundpfeiler der Demokratie werden soll und den bislang Unsichtbaren und Benachteiligten endlich eine Stimme verleihen wird.
Statistik verschafft Macht. Calyampudi Radhakrishna Rao erkannte das früh – und verwendete sein ganzes Leben darauf, diese Macht in die Hände möglichst vieler Menschen zu legen. Rao, in Fachkreisen meist »CR« genannt, war nicht nur einer der prägendsten Statistiker des 20. Jahrhunderts, der persönlich mit Fisher, Shewhart und Taguchi arbeitete, und das auf stets sanfte und freundliche Weise: »[I]ndische Wissenschaftler [sind] höflich und kritisieren nicht des anderen Arbeit, was dem Fortschritt der Wissenschaft nicht unbedingt zuträglich ist.«20 Eine durchaus doppelbödige Aussage von einem Schüler des cholerischen Fisher! Rao war zugleich ein Visionär, der Statistik als demokratisches Werkzeug verstand. Er entwickelte Verfahren, die auch bei kleinen oder unvollständigen Datensätzen belastbare Aussagen ermöglichten – für Länder, die keine großen Labore, aber viele Herausforderungen hatten. Er brachte Genetik und Differentialgeometrie zusammen und half der indischen Regierung nach der Unabhängigkeit von Großbritannien bei der Planung des Gesundheitssystems.
Radikal neu war sein Ansatz, Statistik nicht als abstrakte Theorie oder reines Handwerkszeug zu begreifen, sondern als wissenschaftlich fundierte Allzweckwaffe, um die drängendsten Probleme seiner Zeit zu bekämpfen. Armut, Hunger, Ungleichheit – für Rao waren das die Anwendungsfelder, auf denen die Statistik beweisen kann, wozu sie fähig ist. Er verschob Macht von kolonialer Abhängigkeit zu wissenschaftlicher sowie politischer Selbstbestimmung und zeigte auf, dass beides untrennbar miteinander verbunden ist. Seine Arbeit legte den Grundstein für vieles, was wir heute selbstverständlich finden: evidenzbasierte Politik, datengetriebene Medizin, robuste Modelle für maschinelles Lernen. Dazu war er ein leidenschaftlicher Lehrer, der Generationen von Nachwuchsstatistikern prägte.
Während Rao das statistische Denken von den kolonialen Rändern ins Zentrum globaler Wissenschaft brachte, waren es in den USA, der Neuen Welt, vor allem Frauen, die Statistik als zivilgesellschaftliche Kraft weiterentwickelten. Auch sie haben Macht verschoben: nicht durch lautstarke Thesen, sondern durch neue Strukturen, durch wissenschaftliche Sorgfalt und durch den Mut, auf methodische Integrität zu bestehen, selbst wenn sie unbequem war.
Kimoko Bowman etwa, deren Biografie vom Trauma der Internierung japanisch-stämmiger Amerikaner während des Zweiten Weltkriegs und ihrer Polio-Erkrankung geprägt war, nutzte Statistik, um Repräsentation für Menschen, die mehrfach marginalisiert waren, zu erkämpfen: Frauen, Menschen mit Behinderung, Angehörige einer Minderheit. Dass die US-Volkszählung heute differenziertere Fragen zu Gesundheit und Einschränkungen beinhaltet, ist auch ihr Verdienst. Als Wissenschaftlerin arbeitete sie an Schätzmethoden für nicht-normale Daten. Oder Irene Hess: Sie professionalisierte die Erhebung gesellschaftlicher Daten in einer Zeit, als es keinesfalls selbstverständlich war, ländliche Haushalte, arme Bevölkerungsschichten oder »People of Color« in den Blick zu nehmen. Hartnäckig kämpfte sie für faire Stichprobenverfahren und methodisch transparente Befragungen, damit Unterschiede nicht ausgemittelt werden, sondern ins öffentliche Bewusstsein rücken.
Mary W. Gray verband Statistik mit Menschenrechten. Vor dem US-Kongress argumentierte sie für Lohngleichheit und Rentengerechtigkeit, sie kämpfte gegen Altersdiskriminierung und für ihr Recht auf freien Zutritt zu den Männergesellschaften. »Ich bin kein Gentleman, ich bleibe« – mit diesem Satz antwortete sie auf den Versuch, sie mit dem Hinweis auf ein Gentlemen’s Agreement aufgrund ihres Geschlechts von einer wissenschaftlichen Veranstaltung auszuschließen.21 Statistik ist für sie ein Mittel zu mehr Teilhabe: »Ich habe herausgefunden, dass ich eine unmittelbare Wirkung erziele, wenn ich Statistik nutze.«22
Als erste Frau an der Spitze des Bureau of Labor Statistics verteidigte Janet Norwood in den USA der 1970er Jahre erfolgreich die Unabhängigkeit der Arbeitsmarktstatistik. Ihre Überzeugung: Nur wenn Daten frei von Manipulation sind, können sie Vertrauen stiften. Mollie Orshansky schließlich veränderte mithilfe der Statistik das soziale Bewusstsein eines ganzen Landes: Ihre Armutsgrenze machte erstmals strukturelle Not sichtbar. Plötzlich gab es eine messbare Einkommensschwelle, unter der ein menschenwürdiges Leben als nicht mehr möglich angesehen wird. All diese und viele weitere Frauen gaben mit Daten jenen eine Stimme, die bisher keine hatten. Sie zeigten mit ihrer Arbeit immer wieder: Daten sind Macht. Und Macht kann – und muss – gerecht verteilt werden. Für die amtliche US-amerikanische Nachkriegsstatistik gilt das Motto: Power to the people!
Doch was ist mit der Alten Welt?
London 1975. Eine kleine Gruppe von Wissenschaftlern gründet die Radical Statistics Group, kurz Radstats, inspiriert von der britischen Society for Social Responsibility in Science. Ihr Motiv: eine freie, demokratische und egalitäre Gesellschaft.23 Ihre Gründungsmitglieder eint die Sorge über die politischen Implikationen wissenschaftlicher Arbeit und das Bewusstsein für den tatsächlichen und potenziellen Missbrauch von Statistiken: Warum werden soziale Probleme durch eine übermäßig technische Sprache verschleiert und so stark fragmentiert, dass man die großen Zusammenhänge nicht mehr sieht? Warum beeinflusst nicht die Gesellschaft, was und wie erforscht und veröffentlicht wird, sondern die herrschenden Machtstrukturen?
Nicht nur Wissenschaftler rebellieren gegen die Strukturen. Zeitgleich erscheint ein kleines Buch mit dem Titel Statistik für Verhandler. Die Zielgruppe: Nicht-Akademiker. Auf 96 Seiten beschreibt sein Autor Karl Hedderwick, wie Gewerkschaftsvertreter die Statistik für ihre Zwecke nutzen können, um Gegen-Narrative aufzubauen: Wie erkennt man verzerrte Darstellungen von Arbeitgebern? Wie hinterfragt man offizielle Zahlen zu Reallöhnen, Produktivität oder Inflationsraten und dreht den Spieß dann um? Die Botschaft: Statistiken sind nicht neutral, sondern Teil der Strategie in Tarifverhandlungen. »Wer die Zahlen kontrolliert, kontrolliert das Argument. Wenn du ihre Zahlen nicht hinterfragen kannst, hast du schon verloren.«
