Die Weisheit der Vielen - James Surowiecki - E-Book

Die Weisheit der Vielen E-Book

James Surowiecki

0,0

Beschreibung

Publikumsjoker sticht Expertenmeinung. Mit unverstelltem Blick untersucht der amerikanische Autor das Phänomen der Gruppe und ihrer klugen Entscheidungen, wenn die richtigen Voraussetzungen gegeben sind. Eine aufschlussreiche, unterhaltsame Lektüre und zugleich ein kraftvoller Kontrapunkt zur gegenwärtigen Diskussion um Eliten und einzelne Meinungsführer. "Die Weisheit der Vielen" ist faszinierend, es ist eines jener Bücher, die die Welt auf den Kopf stellen.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern

Seitenzahl: 553

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Warum Gruppen klüger sind als Einzelne und wie wir das kollektive Wissen für unser wirtschaftliches, soziales und politisches Handeln nutzen können

DIE WEISHEIT DER VIELEN

JAMES SUROWIECKI

Die Originalausgabe ist 2004 unter dem Titel

„The Wisdom of Crowds. Why the Many Are Smarter than the Few and How Collective Wisdom Shapes Business, Economies, Societies, and Nations“ bei Doubleday, New York, erschienen.

© 2004 by James Surowiecki

This translation published by arrangement with Doubleday, an imprint of The Knopf Doubleday Group, a division of Penguin Random House, LLC.

© der deutschsprachigen Ausgabe 2005

by C. Bertelsmann Verlag, München, einem Unternehmen

der Verlagsgruppe Random House GmbH

James Surowiecki, Die Weisheit der Vielen. Warum Gruppen klüger sind als Einzelne und wie wir das kollektive Wissen für unser wirtschaftliches, soziales und politisches Handeln nutzen können

Die Rechte an der deutschen Übersetzung von Gerhard Beckmann liegen beim

C. Bertelsmann Verlag, München, in der Verlagsgruppe Random House GmbH.

Copyright 2017:

© Börsenmedien AG, Kulmbach

Umschlaggestaltung: Johanna Wack

Druck: GGP Media GmbH, Pößneck

ISBN 978-3-86470-513-7

eISBN 978-3-86470-514-4

Alle Rechte der Verbreitung, auch die des auszugsweisen Nachdrucks, der fotomechanischen Wiedergabe und der Verwertung durch Datenbanken oder ähnliche Einrichtungen vorbehalten.

Bibliografische Information der Deutschen Nationalbibliothek:

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über <http://dnb.d-nb.de> abrufbar.

Postfach 1449 · 95305 Kulmbach

Tel: +49 9221 9051-0 · Fax: +49 9221 9051-4444

E-Mail: [email protected]

www.plassen.de

www.facebook.com/plassenverlag

Für meine Eltern

INHALT

Einleitung

Erster Teil

1. Die Weisheit der Massen

2. Die entscheidende Bedeutung von Unterschieden:Locktänze, die Schweinebucht und der besondere Wert der Diversität

3. Affe sieht was, Affe macht es:Über Nachahmung, Informationskaskaden und Unabhängigkeit

4. Die Steinchen zusammenfügen:CIA, Linux und die Kunst des Dezentralisierens

5. Aufforderung zum Tanz:Koordinieren ist ein schwieriges Geschäft

6. Es gibt die Gesellschaft doch:Steuern, Trinkgelder, Fernsehen und Vertrauen

Zweiter Teil

7. Der Verkehr: Koordinationsversagen

8. Der Wissenschaftsbetrieb:Kooperation, Konkurrenz und Reputation

9. Komitees, Geschworene und Teams:Die Columbia-Katastrophe, und wie kleine Gruppen funktionieren können

10. Das Unternehmen:Ist der neue Boss wie der alte?

11. Märkte:Schönheitswettbewerbe, Bowlingbahnen und Aktienpreise

12. Demokratie: Träume vom Gemeinwohl

Anmerkungen

Personenregister

Orts- und Sachregister

Dank

EINLEITUNG

1

An einem Herbsttag des Jahres 1906 brach der britische Gelehrte Francis Galton von seiner Wohnung in der Stadt Plymouth zum Besuch eines Marktes auf dem Lande auf. Den fünfundachtzigjährigen Galton plagten zwar die üblichen Altersbeschwerden, doch wurde er nach wie vor von jener unbezähmbaren Neugier getrieben, die ihm bei seinen Forschungen zur Statistik und über Erbanlagen Ruhm – und einen berüchtigten Ruf – eingebracht hatte. An diesem Tage galt Galtons Wissbegier dem Nutzvieh.

Galtons Ziel war die alljährliche West of England Fat Stock and Poultry Exhibition, eine regionale Messe, zu der sich Bauern und Stadtbewohner aus der Umgebung einfanden, um Rinder, Schafe, Hühner, Pferde und Schweine zu taxieren. Nun mag es seltsam erscheinen, dass ein Wissenschaftler – noch dazu ein so hoch betagter – einen ganzen Nachmittag darauf verwendete, Reihe um Reihe von Ständen abzulaufen und Arbeitspferde und prämiierte Hausschweine zu begutachten; es entsprach jedoch einer gewissen Folgerichtigkeit seines Denkens. Galton war nämlich geradezu besessen von zweierlei: dem Messen körperlicher wie geistiger menschlicher Eigenschaften und der Fortpflanzung. Und was wäre schließlich ein Viehmarkt, wenn nicht ein grandioses Schaufenster für die Auswirkungen guter und schlechter Aufzucht von Tieren?

Erziehung und Bildung waren für Galton deshalb von generell hoher Bedeutung, weil er der Überzeugung war, dass nur sehr wenige Menschen über jene Eigenschaften verfügten, die zum Erhalt einer gesunden, funktionierenden Gesellschaft erforderlich sind. Er hatte solch spezielle Eigenschaften in seinem langen Leben als Wissenschaftler unentwegt durch Messungen zu erfassen versucht – genauer gesagt: Er war immer wieder bemüht gewesen nachzuweisen, dass derartige Eigenschaften der überwiegenden Mehrheit der Menschheit abgingen. So hatte er beispielsweise 1884 auf der Weltausstellung in London ein »anthropometrisches Labor« aufgebaut, wo er mit eigens dazu von ihm entwickelten Geräten und Methoden »die Seh- und Hörschärfe, den Farbsinn, die Urteilsfähigkeit des Auges [und] die Reaktionsschnelligkeit« von Messebesuchern testete. Die Experimente hatten ihm wenig Vertrauen in die Intelligenz des durchschnittlichen Menschen vermittelt, »da die Dummheit und Verbohrtheit vieler Männer und Frauen von schier unglaublichen Ausmaßen« sei. Eine Gesellschaft könnte – so Galtons Überzeugung – nur dann gesund und tüchtig bleiben, wenn ihre Lenkung und die Macht in der Hand weniger Auserwählter verblieben.

Beim Gang über die Messe jenes Herbsttages kam Galton zu einem Wettbewerb, bei dem es um eine Gewichtsbeurteilung ging. Man hatte einen massigen Ochsen zur Schau gestellt, und aus der sich rasch ansammelnden Zuschauermenge trat einer nach dem andern vor, um das Gewicht des Ochsen zu schätzen. (Beziehungsweise es wurden Wetten darauf abgegeben, wie hoch das Gewicht des Ochsen sein würde, nachdem er »geschlachtet und ausgeweidet« wäre.) Für ein Sixpencestück gab es eine gestempelte nummerierte Karte zu kaufen, auf der Name, Adresse und das Schätzgewicht einzutragen waren. Auf die genauesten Schätzungen waren Preisgelder ausgesetzt.

Rund 800 Leute versuchten ihr Glück. Es war eine bunt zusammengewürfelte Mischung – darunter viele Metzger und Landwirte, die wahrscheinlich etwas von Viehgewichten verstanden, jedoch auf der anderen Seite nicht wenige, die, in heutigem Sprachgebrauch, kein »Insiderwissen« über Hornvieh besaßen. »An dem Wettspiel nahmen zahlreiche Laien teil«, berichtete Galton später in der Wissenschaftszeitschrift Nature, »wie all jene Büroangestellten usw., die über keinerlei Fachwissen verfügen und doch, Zeitungsberichten, Meinungen von Freunden oder eigenem Gutdünken folgend, bei Pferderennen wetten.« Es war Galton sofort klar, dass hier eine Analogie zu demokratischen Gesellschaften bestand, in denen Menschen mit völlig unterschiedlichen Fähigkeiten und Interessen ihr freies Wahlrecht ausüben. »Der durchschnittliche Wettteilnehmer«, schrieb er, »war in aller Wahrscheinlichkeit in gleicher Weise imstande, das Schlachtgewicht des Ochsen zu schätzen, wie der durchschnittliche Wähler den Sachgehalt der meisten politischen Fragen zu beurteilen imstande ist, über die er abstimmt.«

Nun kam es Galton aber darauf an herauszufinden, wozu der »Durchschnittswähler« befähigt ist, weil er nachweisen wollte, dass dieser Typus eben zu sehr wenig imstande wäre. Um dieses Zieles willen nutzte er diese Ochsen-Wette zu einem Spontanexperiment. Nach der Auszählung und Preisverleihung borgte sich Galton von den Veranstaltern die Wettkarten und unterwarf sie mehreren statistischen Tests. Er ordnete die Schätzungen – es waren 787, nachdem er 13 wegen Unlesbarkeit hatte eliminieren müssen – in einer Rangfolge vom höchsten bis zum niedrigsten Wert. Weil er neugierig war, ob sie dem Verlauf der von ihm entdeckten statistischen Glockenkurve entsprachen, stellte er die Ergebnisse graphisch dar. Danach addierte er, unter anderem, die Schätzwerte aller Wettteilnehmer, um den mittleren Wert zu errechnen – es war die Zahl, die gewissermaßen die kollektive Weisheit der Menge auf jener Messe nahe Plymouth darstellte. Wäre die Menge der dortigen Wettteilnehmer eine Einzelperson gewesen – auf genau das Gewicht hätte ein solches Individuum das Gewicht dieses Ochsen geschätzt.

Nun hatte Galton zweifellos erwartet, dass der mittlere Schätzwert weit daneben liegen würde. Und es scheint ja zunächst durchaus plausibel: Die Mischung aus ein paar extrem kundigen Personen, etlichen mittelmäßigen und einem Haufen dumpfer Individuen müsste doch ein entsprechend unsinniges Ergebnis zeitigen. Aber Galton hatte sich geirrt. Denn die Ausstellungsbesucher hatten das Gewicht des geschlachteten, ausgeweideten Ochsen auf 1197 [englische] Pfund geschätzt. Und nach Schlachtung und Ausweidung wog das Tier dann genau 1198 Pfund. Mit anderen Worten: Das Gruppenurteil traf fast haargenau ins Schwarze. Also konnten Bildung und Fachwissen vielleicht doch keine so immense Rolle spielen. »Das Resultat«, schrieb Galton später, »scheint ein wenig mehr für die Vertrauenswürdigkeit eines demokratischen Urteils zu sprechen, als man hätte erwarten mögen.« Das aber ist nun wirklich – milde ausgedrückt – ein typisch englisches Understatement.

2

An jenem Herbsttag ist Francis Galton über die schlichte, dafür aber umso nachhaltigere Wahrheit gestolpert, die den Kern dieses Buches ausmacht: Unter den richtigen Umständen sind Gruppen bemerkenswert intelligent – und oft klüger als die Gescheitesten in ihrer Mitte. Für das kluge Verhalten solcher Gruppen bedarf es eben nicht dominanter, außergewöhnlich gescheiter Mitglieder. Mit anderen Worten: Auch wenn die allermeisten Angehörigen einer Gruppe weder sonderlich informiert noch zu rationalem Denken imstande sind, vermögen sie als Kollektiv gleichwohl vernünftige Entscheide zu treffen. Und das ist gut so, da der Mensch für Entscheidungsfindungen keineswegs ideal ausgerüstet und vollkommen ist. Jeder für sich allein genommen, sind wir vielmehr, um den Ökonomen Herbert Simon zu zitieren, bloß »beschränkt rational«. Jeder von uns verfügt über weniger Informationen, als ihm lieb sein könnte. Wir haben lediglich einen begrenzten Blick in die Zukunft. Den meisten von uns fehlt es an der Gabe – und am nötigen Willen –, hochkomplizierte Kosten-Nutzen-Rechnungen zu erstellen. Statt darauf aus zu sein, die jeweils beste aller möglichen Lösungen zu finden, geben wir uns häufig mit einer passablen Variante zufrieden. Und wir lassen uns in unserem Urteil oft von Gefühlen leiten. Trotz all solcher Beschränkungen ist es aber so, dass unsere kollektive Intelligenz oft exzellent funktioniert, wenn unsere individuell unvollkommenen Urteile auf die richtige Art und Weise vereinigt werden.

Diese kollektive Intelligenz beziehungsweise das, was ich als »Die Weisheit der Vielen« bezeichne, tritt in mannigfachen Formen zutage. Sie ist der Grund dafür, dass die Internet-Suchmaschine Google eine Milliarde Websites scannen und genau die eine Seite finden kann, die die gesuchte Information enthält. Sie ist der Grund, warum es so schwer ist, einen Lottosechser zu erzielen, und sie hilft zu verstehen, warum in den vergangenen anderthalb Jahrzehnten ein paar hundert Amateurhändler einer Börse im abgelegenen US-Bundesstaat Iowa bei Wahlvorhersagen besser abschnitten als Gallup-Prognosen. Die Weisheit vieler vermag uns einiges darüber zu sagen, warum die Börse funktioniert (und warum sie gelegentlich nicht funktioniert). Das Konzept von kollektiver Vernunft trägt zur Erklärung des Phänomens bei, warum man im Tankstellenshop um zwei Uhr morgens noch eine Packung Milch vorfindet, und sie erzählt uns sogar etwas Wichtiges darüber, warum Menschen Steuern zahlen und unbedeutende lokale Fußballvereine unterstützen. Es entspricht solider Wissenschaft. Es birgt auch das Potenzial zur positiven Veränderung des Geschäftsverhaltens von Unternehmen.

Auf den folgenden Seiten soll zum einen der Versuch unternommen werden, die Welt so darzustellen, wie sie ist, indem das Augenmerk auf Dinge gelenkt wird, die auf den ersten Blick grundverschieden scheinen mögen, einander letzten Endes jedoch sehr ähnlich sind. Zum anderen handelt das vorliegende Buch aber auch davon, wie die Welt sein könnte. Ein besonders auffälliger Aspekt der »Weisheit der Vielen« besteht nämlich darin, dass man sie, obwohl sich ihre Wirkungen allenthalben bemerkbar machen, leicht übersieht und dass es selbst dann, wenn sie erkannt werden, oft sehr schwer fallen kann sie zu akzeptieren. Die meisten von uns – ob als Wähler, Investoren, Konsumenten oder Manager – sind der Auffassung, dass wertvolles Wissen in nur sehr wenigen Händen (oder besser gesagt: in nur sehr wenigen Köpfen) konzentriert ist. Wir gehen davon aus, der Schlüssel zur Lösung von Problemen oder zur richtigen Entscheidungsfindung liege darin, die eine richtige Person zu finden, die im Besitz der Antwort wäre. Auch angesichts einer großen Menge, die – ohne dass ihre meisten Mitglieder individuell besonders gut informiert sind – etwas Erstaunliches leistet, wie beispielsweise den Ausgang von Pferderennen vorherzusagen, neigen wir höchstwahrscheinlich dazu, solche Erfolge eher einigen klugen Köpfen innerhalb einer solchen Gruppe als der Gruppe selbst zuzuschreiben. Wir scheinen fast zwanghaft immer »nach dem Experten zu suchen«, so die Soziologen Jack B. Soll und Richard Larrick. In den folgenden Kapiteln soll die These vertreten werden, dass eine solche Hatz auf Experten ein Fehler ist, und ein kostspieliger Fehler obendrein. Wir sollten aufhören, hinter Experten herzuhecheln, und stattdessen die Menge befragen (der selbstverständlich wie alle anderen auch die Genies angehören). Die Chancen stehen einigermaßen gut, dass sie über das nötige Wissen verfügt.

3

Schon die Vorstellung, dass eine Menschenmenge überhaupt etwas wissen könnte, hätte Charles Mackay hohnlachend zurückgewiesen. Dieser schottische Journalist veröffentlichte 1841 das Werk Extraordinary Popular Delusions and the Madness of Crowds [»Ungewöhnliche populäre Irrtümer und Massenwahn«], dem, wenn auch in Umkehrung, der Titel dieses Buches Tribut zollt. Es ist eine unerschöpflich unterhaltsame Chronik von Vorkommnissen des Massenwahns und kollektiver Dummheit: Mackay zufolge sind Massen nie weise, ja nicht einmal vernünftig, fallen kollektive Urteile stets unausgewogen und extrem aus. »Menschen, so ist einmal schön formuliert worden, denken in Herden«, schrieb er. »Wie zu zeigen sein wird, werden sie im Herdenverbund verrückt; zu Verstand kommen sie nur langsam und nur jeder für sich allein.« Mackays These von einem kollektiven Wahn ist keine Einzelerscheinung. In der Volksmeinung macht die Menge Menschen entweder blöd oder verrückt, wenn nicht gar beides zugleich. Dem Börsenspekulanten Bernard Baruch wird folgendes Urteil zugeschrieben: »Jeder Mensch ist, für sich genommen, einigermaßen vernünftig und rational – als Mitglied einer Menge aber wird er prompt zum Dummkopf.« Henry David Thoreau klagte: »Die Masse erreicht niemals das geistige Niveau ihres herausragendsten Mitglieds, sondern sinkt vielmehr auf das unterste individuelle Niveau in ihren Reihen.« Friedrich Nietzsche behauptete: »Der Irrsinn ist bei Einzelnen etwas Seltenes – aber bei Gruppen die Regel.« Und der englische Historiker Thomas Carlyle fasste kurz und bündig zusammen: »Ich glaube nicht an die kollektive Weisheit individueller Ignoranz.«

Der schärfste Verfechter der These der Dummheit von Gruppen dürfte der französische Schriftsteller Gustave Le Bon gewesen sein, der 1895 mit seiner Polemik Psychologie der Massen Berühmtheit erlangte. Le Bon war über das Aufkommen der Demokratie in der westlichen Welt während des 19. Jahrhunderts entsetzt; er weigerte sich zu akzeptieren, dass gewöhnliche Menschen in der Politik und im kulturellen Leben Macht und Einfluss gewonnen hatten. Seine Verachtung der Menge ging jedoch tiefer. Eine Masse, so argumentierte Le Bon, sei nicht bloß die Summe ihrer Mitglieder; sie sei so etwas wie ein selbstständiger Organismus, habe eine eigene Identität, einen eigenen Willen und verhalte sich oft auf eine Weise, die kein Einzelner in ihr beabsichtigt habe. Wenn eine Masse handle, so Le Bon, agiere sie unweigerlich dumm. Eine Masse möge tapfer, feige oder brutal sein, doch nie und nimmer gescheit. Denn »in dem Haufen, der eine Masse bildet«, ergebe sich »keineswegs eine Summe und ein Durchschnitt der Bestandteile«, sondern bloß Dummheit, »weil die Massen niemals Handlungen ausführen können, die eine besondere Intelligenz beanspruchen« und »dem allein stehenden Menschen intellektuell stets untergeordnet« seien. Le Bons Begriff von der »Masse« umfasst nicht nur den augenscheinlich kollektiv rabiaten Pöbel oder aufrührerischen Mob, sondern praktisch alle Arten von Gruppen, die Entscheidungen fällen.

Darum wetterte Le Bon auch gegen Schwurgerichte: Sie »sprechen Urteile aus, die jeder Geschworene als Einzelner missbilligen würde«. Parlamente, so erklärte er, beschlossen Gesetze und Verordnungen, die der einzelne Abgeordnete für sich allein ablehnen würde. Ja, »die Entscheidungen von allgemeinem Interesse, die von einer Versammlung hervorragender, aber verschiedenartiger Leute getroffen werden, sind jenen, welche eine Versammlung von Dummköpfen treffen würde, nicht merklich überlegen«.

Ich folge im Verlauf dieses Buches dem Beispiel Le Bons, indem ich die Begriffe »Gruppe«, »Menge« und »Masse« breit definiere und darunter alles – vom Quiz-Show-Publikum über Konzerne mit Milliardenumsätzen bis hin zu einer Menge, die Sportwetten tätigt – umfasse. Manche solcher Gruppen, wie beispielsweise Managementteams, von denen im 9. Kapitel die Rede sein soll, sind streng organisiert und sich ihrer Gruppenidentität stark bewusst. Andere große Gruppen, wie etwa die Autofahrerhorden in Verkehrsstaus, mit denen ich mich im 7. Kapitel befasse, sind ohne jede förmliche Organisation. Wieder andere, so die Börsenmärkte, bestehen hauptsächlich im Sinne einer sich unentwegt verändernden Ansammlung von Zahlen und Geldwerten. All diese Gruppen sind verschiedenartig und doch durch die Fähigkeit geeint, kollektiv Entscheidungen zu treffen und Probleme zu lösen – selbst wenn es den Personen, die diesen Gruppen angehören, nicht immer bewusst ist, dass sie eben das leisten. Und was für manche jener Gruppen nachweislich gilt – nämlich dass sie klug handeln und ausgesprochen geschickt im Lösen von Problemen sind –, trifft, wenn nicht auf alle, so doch auf die meisten potenziell zu. Von dieser Warte aus betrachtet hat Gustave Le Bon die Sache in genau umgekehrter Weise gesehen. Wenn man eine hinreichend große und mannigfaltige Gruppe von Menschen zusammenbringt und sie auffordert, »Entscheidungen zu treffen, die das Allgemeininteresse berühren«, so werden die Entscheide dieser Gruppe mit der Zeit »denen eines isolierten Individuums geistig [überlegen] sein«, ganz gleich, wie intelligent oder gut informiert die Einzelperson ist.

4

Das Gewicht eines Ochsen zu schätzen ist wohl kaum eine komplizierte Aufgabe. Wie schon erwähnt, kann kollektive Intelligenz aber auf alle Probleme angesetzt werden, mögen sie auch noch so komplex sein. Ich konzentriere mich in diesem Buch auf drei Arten von Problemen. Die erste Kategorie möchte ich als Kognitionsprobleme bezeichnen – dabei geht es um Fälle, für die es definitive Lösungen gibt oder geben wird. Um solche Kognitions- oder Erkenntnisprobleme handelt es sich beispielsweise bei Fragen wie: »Wer gewinnt in diesem Jahr das Endspiel der Champions League?« oder: »Wie viele Exemplare des vorliegenden Buches werden wir im laufenden Jahr verkaufen?« Das trifft auch auf die Frage zu: »Wie groß ist die Wahrscheinlichkeit, dass dieses Medikament von der Arzneimittelbehörde zugelassen wird?« Es handelt sich da um Fragen, auf die es vielleicht nicht eine einzige richtige Antwort geben wird, für die manche Antworten jedoch gewiss besser sind als andere. Fragen wie: »Was wäre der beste Standort für das neue öffentliche Schwimmbad?« stellen ebenfalls Kognitionsprobleme dar.

Die zweite Problemart wird gewöhnlich als Koordinierungsproblem bezeichnet. Bei Koordinierungsproblemen haben Mitglieder einer Gruppe (des Marktes, U-Bahn-Benutzer, Studenten auf der Suche nach einer preisgünstigen Bude) eine Möglichkeit zu finden, ihr Verhalten untereinander zu koordinieren, wohl wissend, dass jeder von ihnen Gleiches zu tun versucht. Wie kommen Käufer und Verkäufer zusammen, und wie handeln sie einen fairen Preis aus? Wie organisieren Unternehmen ihre geschäftlichen Aktionen? Wie kommt man als Fahrer sicher durch starken Verkehr? All das sind Koordinationsaufgaben.

Und dann gibt es da noch die Kooperationsprobleme. Wie schon der Name andeutet, bergen solche Probleme die Aufgabe in sich, selbstsüchtige, misstrauische Menschen zur Zusammenarbeit zu bewegen, obwohl das strikte Eigeninteresse es eigentlich zwingend erscheinen ließe, dass kein Individuum daran teilnehmen sollte. Die Begleichung von Steuern, das Vorgehen gegen Umweltverschmutzung, ein generelles Verständnis von der angemessenen Höhe von Löhnen und Gehältern – all das sind Beispiele für gelöste Kooperationsprobleme.

Noch ein paar Erläuterungen zum Aufbau dieses Buches. Im ersten Teil geht es, auch wenn er mit praktischen Beispielen gewürzt sein wird, um Theoretisches. Jede der oben genannten drei Problemarten hat ein eigenes Kapitel; hinzu kommen Kapitel, die sich mit den Bedingungen befassen, die gegeben sein müssen, um Massen weise zu machen: Diversität, Unabhängigkeit und eine besondere Art von Dezentralisierung. Der erste Teil dieses Buches beginnt mit der Weisheit der Massen, um dann die drei Voraussetzungen zu erkunden, die sie ermöglichen, bevor wir uns im Weiteren mit Koordination und Kooperation beschäftigen.

Der zweite Teil des Buches besteht im Wesentlichen aus Fallstudien. Jedes Kapitel ist einer anderen Methode zur Ausrichtung beziehungsweise Organisation von Menschen auf ein gemeinsames Ziel (oder zumindest auf ein loses Verständnis solch gemeinsamer Ziele) gewidmet, und jedes Kapitel handelt davon, wie kollektive Intelligenz gedeiht oder scheitert. So wird beispielsweise im Kapitel über große Unternehmen der Kontrast aufgezeigt zwischen einem System, in dem nur einige wenige Personen Macht ausüben, und einem System, in dem viele mitbestimmen. Das Kapitel über Märkte beginnt mit der Frage, welche kollektive Intelligenz Märkte aufbieten können, und endet mit einem Blick auf die Dynamik eines Börsenkrachs.

Es werden in diesem Buch viele Geschichten erzählt von Gruppen, die schlechte Entscheidungen treffen, wie von Gruppen, deren Entscheidungen sich als vorteilhaft erweisen. Warum? Nun, zum einen aus dem schlichten Grund, weil dies nun einmal so ist. Die Weisheit der Massen hat auf unser tägliches Leben einen viel bedeutsameren und positiveren Einfluss, als uns bewusst ist: Daraus ergeben sich enorme Chancen für die Zukunft. Gegenwärtig fällt es vielen Gruppen jedoch schwer, auch nur mittelmäßige Entscheidungen zu treffen, während andere mit ihren schlechten Urteilen Verheerungen anrichten. Unter manchen Umständen arbeiten Gruppen besser, unter anderen weniger gut. Damit Gruppen zusammenhalten und ordentlich funktionieren, sind Regeln erforderlich; ohne eine gewisse Ordnung und ohne solche Regeln sind Ärger und Fehlleistungen die Folgen. Gruppen profitieren davon, dass ihre Mitglieder miteinander sprechen und untereinander lernen; eine übertriebene Kommunikation kann, so paradox es klingt, jedoch dazu führen, dass die kollektive Intelligenz abnimmt. Größere Gruppen können sich oft ausgezeichnet auf das Lösen gewisser Probleme verstehen, aber auch unkontrollierbar und ineffizient sein. Andererseits ist es so, dass kleinere Gruppen leicht zu führen sind, jedoch Gefahr laufen, dass in ihnen zu wenig unterschiedliches Denken und zu viel Übereinstimmung herrscht. Und Mackay hatte schließlich mit seiner Beobachtung der Extreme kollektiven Verhaltens Recht: Es gibt Zeiten – man denke an einen Aufstand oder einen Börsenkrach –, in denen das Zusammenkommen individueller Entscheidungen in völlig irrationalen kollektiven Entscheidungen resultiert. Die Beispiele derartiger Fehler sind Beweise ex negativo für die These dieses Buches; sie unterstreichen, wie ungemein wichtig Vielfalt und Unabhängigkeit in der Meinungsbildung für eine gute Entscheidungsfindung sind, da sie die Folgen aufzeigen, wenn es an ihnen mangelt.

Meinungsvielfalt und -unabhängigkeit innerhalb einer Gruppe sind deshalb wichtig, weil die besten kollektiven Entscheidungen eben nicht durch Konsens und Kompromisse zustande kommen, sondern im Wettbewerb voneinander unabhängiger Meinungen. Eine intelligente Gruppe wird – das gilt insbesondere bei anstehenden Kognitionsproblemen – ihre Mitglieder nicht auffordern, ihre Positionen zu überdenken, damit man zu einer Entscheidung gelangt, mit der jeder glücklich sein kann. Sie wird vielmehr überlegen, auf welche Weise sich Mechanismen wie Marktpreise oder intelligente Abstimmungsverfahren nutzen lassen, um kollektive Urteile zu aggregieren und zu erzeugen, die nicht die Meinung eines Einzelnen in der Gruppe wiedergeben, sondern sozusagen zum Ausdruck bringen, was alle Mitglieder gemeinsam denken. Es ist paradoxerweise nämlich so, dass jedes einzelne Mitglied zu möglichst unabhängigem Denken und Handeln fähig sein muss, um die Gruppe gescheit zu machen.

5

Ich habe die Einleitung mit einem Beispiel begonnen, in dem eine Gruppe ein einfaches Problem bewältigt: das Gewicht eines Ochsen zu schätzen. Ich möchte sie mit dem Beispiel einer Gruppe beschließen, die ein unglaublich schwieriges Problem gelöst hat: nämlich ein verloren gegangenes U-Boot aufzuspüren. Es sind zwei höchst unterschiedliche Fälle, und doch geht es in beiden um das gleiche Prinzip.

Im Mai 1968 verschwand das U-Boot Scorpion der US-Marine nach einer Routinetour während der Rückkehr zum Hafen Newport News im Nordatlantik. Die Marine kannte nur den Standort des U-Boots bei der letzten Funkmeldung. Man hatte keine Ahnung, was der Scorpion zugestoßen war, und nur eine vage Vorstellung davon, wie weit sie sich vom Ort des letzten Funkkontakts entfernt haben mochte. Infolgedessen nahm die Marine ihre Suche in einem Umkreis von 20 Seemeilen und in großer Tiefe auf. Eine hoffnungslosere Aufgabe lässt sich kaum denken. Und der einzig mögliche Weg zu ihrer Lösung wäre üblicherweise der gewesen, drei oder vier hochkarätige Fachleute mit Spezialkenntnissen über U-Boote und Meeresströmungen ausfindig zu machen, sie zu befragen, wo die Scorpion sich befinden könnte, und dann dort mit der Suche zu beginnen. Wie Sherry Sontag und Christopher Drew in ihrem Buch Blind Man’s Bluffberichten, hatte ein Marineoffizier namens John Craven da jedoch eine völlig andere Idee.

Craven konstruierte zunächst einmal eine Reihe von Szenarien – alternative Erklärungen zu dem, was möglicherweise mit der Scorpion passiert war. Sodann trommelte er ein Team von Männern mit einem breiten Spektrum an Kenntnissen zusammen, darunter Mathematiker, U-Boot-Experten und Bergungsspezialisten. Statt sie nun aufzufordern, untereinander zu beraten und mit einer gemeinsamen Antwort aufzuwarten, bat er jeden Einzelnen um ein von diesem favorisiertes Szenario. Um die Sache interessanter zu machen, ließ er sie ihre Einschätzungen in Form von Wetten abgeben; als Preise waren Flaschen Chivas-Regal-Whisky zu gewinnen. Und so tätigten Cravens Männer denn ihre Wetten: auf die Ursache, die für die Schwierigkeiten des U-Boots gesorgt hatte, über die Geschwindigkeit und den Neigungswinkel, in denen es sich auf den Meeresgrund zubewegte, und so weiter.

Craven war natürlich klar, dass keine dieser Einzelinformationen ihm darüber Aufschluss geben konnte, wo die Scorpion sich befand. Doch er war überzeugt, eine ziemlich genaue Vorstellung von der Position des U-Boots zu bekommen, wenn er alle einzelnen Antworten zu einem Mosaik des Untergangs der Scorpion zusammentragen würde. Und genau das hat er dann gemacht. Er holte alle Schätzungen ein und bediente sich der so genannten Bayesschen Regel, um die endgültige Position der Scorpion zu lokalisieren. (Die Bayessche Regel ist eine Formel zur Berechnung, wie eine neue Information über ein Ereignis unsere vorherigen Erwartungen hinsichtlich der Wahrscheinlichkeit des Ereignisses verändert.) Am Ende würde Craven, vereinfacht ausgedrückt, die kollektive Einschätzung der Gruppe bezüglich des Verbleibs des U-Bootes erhalten.

Die Position, die Craven auf diese Weise ermittelte, war nicht eine Stelle, die irgendein einzelnes Mitglied des Teams angegeben hatte. Mit anderen Worten: Nicht ein einziges Mitglied der Gruppe hatte eine Vorstellung im Kopf, welche jener Vorstellung entsprach, die Craven aus den von ihnen allen eingesammelten Informationen zusammenfügte. Bei der Schlussschätzung handelte es sich um ein echt kollektives Urteil, zu dem die Gruppe in ihrer Gesamtheit gelangt war, und nicht etwa um individuelle Empfehlungen von Seiten der klügsten Gruppenangehörigen. Und es sollte sich als wirklich brillantes Urteil erweisen. Fünf Monate nach dem Verschwinden der Scorpion spürte ein Schiff der US-Navy das U-Boot auf – nur gut 75 Meter von der Stelle entfernt, wo es sich gemäß der Vermutung von Cravens Gruppe hätte befinden sollen.

Das Erstaunliche an dieser Geschichte liegt darin, dass die Gruppe sich in diesem Fall auf praktisch keinerlei Hinweise stützen konnte, sie hatte lediglich Mini-Bruchstücke von Daten. Keiner hatte eine Ahnung davon, warum das U-Boot untergegangen war, geschweige denn, wie schnell es fuhr oder in welchem Neigungswinkel es auf den Meeresboden sank. Und doch: Obwohl keinem Mitglied der Gruppe auch nur einer dieser Fakten bekannt war, vermochte die Gruppe als Ganzes sie alle zu ermitteln.

ERSTER TEIL

ERSTES KAPITEL

Die Weisheit der Massen

1

Falls Amerikaner sich in späteren Jahren noch an irgendwelche Einzelheiten des TV-Spektakels »Wer wird Millionär?« erinnern sollten, dann vermutlich an panische Anrufe von Teilnehmern bei Freunden und Verwandten. Vielleicht wird ihnen auch noch schwach die kurze Phase im Gedächtnis haften bleiben, in der Regis Philbin wegen seines Mutes, zu einem dunkelblauen Hemd eine dunkelblaue Krawatte zu tragen, zu einer Modeikone avancierte. Nicht erinnern werden sie sich wahrscheinlich daran, dass bei »Wer wird ein Millionär?« Woche um Woche Gruppenintelligenz gegen Einzelintelligenz zum Einsatz kam und dass Woche für Woche die Gruppenintelligenz obsiegte.

»Wer wird Millionär?« war, strukturell gesehen, ziemlich einfältig. Jedem Kandidaten wurden zunehmend schwierigere Multiple-choice-Fragen gestellt – und wenn er 15 Fragen in Folge richtig beantwortete, nahm er eine Million Dollar mit nach Haus. Die Show hatte einen Gag: Wenn ein Teilnehmer ob einer Frage in Schwierigkeiten geriet, standen ihm drei Möglichkeiten offen, diese Klippe dennoch zu meistern. Erstens konnte er sich für die Eliminierung von zwei der vier Antwortmöglichkeiten entscheiden. (So sicherte er sich wenigstens eine Fünfzig-zu-fünfzig-Chance auf eine richtige Antwort.) Zweitens konnte er sich telefonisch mit einer befreundeten oder verwandten Person verbinden lassen, die er vor Beginn der Show als einen ihm als besonders gescheit bekannten Menschen genannt hatte, und sie um die richtige Antwort bitten. Und drittens hatte er die Möglichkeit, das Studiopublikum über die Antwort abstimmen zu lassen, das ihm daraufhin mittels Computer aus der Klemme zu helfen versuchte. Nach allem, was wir über Intelligenz zu wissen meinen, müsste in solch einer Situation eigentlich das kluge Individuum am hilfreichsten sein. Und diese »Experten« schnitten dabei tatsächlich gut ab. Sie steuerten – unter Zeitdruck – in 65 Prozent der Fälle die richtige Antwort bei. Im Vergleich mit dem Studiopublikum stehen sie freilich blass da. Diese zufällig entstandene Gruppe von Leuten, die an einem Werktagnachmittag nichts Besseres zu tun hatten, als sich in ein Fernsehstudio zu hocken, fand nämlich in 91 Prozent der Fälle die richtige Antwort.

Zugegeben: Einer wissenschaftlichen Untersuchung würden die Ergebnisse von »Wer wird Millionär?« nicht standhalten. Es ist nicht bekannt, wie klug die Experten waren. Insofern lässt sich auch nicht bewerten, welcher Intelligenzquotient erforderlich gewesen wäre, sie zu übertreffen. Weil den Experten und dem Studiopublikum zudem nicht immer die gleichen Fragen gestellt wurden, wäre es immerhin möglich – obzwar nicht wahrscheinlich –, dass das Publikum leichtere Fragen zu beantworten hatte. Trotz solcher Vorbehalte fällt es aber schwer, sich dem Gedanken zu verschließen, dass die Erfolge des Studiopublikums bei »Wer wird Millionär?« eine zeitgenössische Bestätigung des Phänomens darstellt, auf das Francis Galton vor etwa einem Jahrhundert als Erster gestoßen ist.

Und die Möglichkeiten von Gruppenintelligenz sind – zumindest was Fragen betrifft, bei denen es um Tatsachen geht – mittels einer Reihe von Experimenten aufgezeigt worden, die amerikanische Soziologen und Psychologen in der goldenen Ära der Erforschung gruppendynamischer Phänomene zwischen 1920 und Mitte der fünfziger Jahre des vorigen Jahrhunderts durchführten. Obwohl es allgemein (wir werden darauf noch zurückkommen) so ist, dass Gruppen umso besser abschneiden, je größer sie sind, waren die Gruppen, mit denen die meisten dieser frühen Experimente durchgeführt wurden – sie blieben aus irgendwelchen Gründen außerhalb von Universitätskreisen ziemlich unbekannt –, relativ klein. Dennoch erbrachten sie sehr gute Leistungen. Losgetreten wurde diese Lawine mit einer Experimentenserie der Soziologin Hazel Knight an der Columbia University in den zwanziger Jahren. In der ersten, die schon ihrer Simplizität wegen beeindruckt, forderte Knight die Studenten ihres Seminars auf, die Raumtemperatur zu schätzen. Anschließend errechnete sie einfach den Durchschnittswert aller Schätzungen. Er unterschied sich von der tatsächlichen Temperatur nur um 0,4 Grad. Besonders viel versprechend wirkt dieser Auftakt heute nicht, da nämlich Klassenzimmertemperaturen bekanntermaßen sehr stabil sind, weshalb es kaum vorstellbar erscheint, dass solch eine Schätzung sich allzu weit vom wirklichen Wert entfernte. Überzeugender ist das Material, das sich in den Folgejahren aus landesweiten Experimenten ergab, bei denen Studenten und Soldaten sozusagen einem Sperrfeuer von Puzzles, Intelligenztests und Buchstabenspielen ausgesetzt wurden. Die Soziologin Kate H. Gordon ließ rund 200 Studenten Objekte nach ihrem Gewicht reihen. Die »Gruppenschätzung« erwies sich als zu 94 Prozent richtig und, von fünf Ausnahmen abgesehen, besser als alle individuellen Schätzungen. In einem weiteren Experiment sollten Studenten zehn Häufchen groben Schrots mit geringen Größenunterschieden betrachten, die auf einen weißen Karton geklebt waren, und der Größe nach ordnen: Hier belief die Genauigkeit der Gruppenschätzung sich auf 94,5 Prozent. Ein klassischer Beweis für Gruppenintelligenz ist das Experiment mit Gläsern voller Geleebonbons, bei dem die Gruppenschätzung der Anzahl Geleebonbons im Glas den Schätzungen individueller Mitglieder konstant hoch überlegen war. Als Jack Treynor, ein Professor für Finanzwirtschaft, das Experiment mit 850 Bohnen im Glas durchführte, betrug die Gruppenschätzung 871 Bohnen – auf einen genaueren Schätzwert kam lediglich ein einziger der 56 Seminarteilnehmer.

Aus diesen Experimenten lässt sich zweierlei lernen. Erstens: In den meisten Gruppen sprachen die Mitglieder während des Experiments nicht miteinander oder taten sich auch nicht zusammen. Jeder machte seine individuelle Schätzung für sich allein, anschließend wurden alle addiert und ihr Mittelwert erfasst. Es war genau diese Methode, die auch Galton anwandte, und sie verspricht hervorragende Resultate. (In einem späteren Kapitel werden wir sehen, wie es in Experimenten mit Interaktionen zwischen den Gruppenmitgliedern zu veränderten Ergebnissen kommt, manchmal zum Besseren, manchmal zum Schlechteren.) Zweitens, die kollektive Schätzung wird nicht immer besser ausfallen als jede individuelle Schätzung. In vielen (vielleicht in den meisten) Fällen wird es einige wenige Personen geben, die die Gruppe übertreffen. Und das ist in einem gewissen Sinne auch gut so; weil es insbesondere in Situationen, die einen Leistungsanreiz bieten (wie zum Beispiel an der Börse), Menschen zu anhaltender Teilnahme motiviert. Diese Studien liefern allerdings keinen Beweis dafür, dass bestimmte Personen ständig besser sind als die Gruppen. Mit anderen Worten: Bei der Durchführung von zehn verschiedenen Experimenten mit Geleebonbons in einem Glas werden wahrscheinlich jedes Mal ein oder zwei Probanden das Schätzungsergebnis der Gruppe übertreffen, es werden aber nicht stets dieselben Personen sein. Bei einer Serie von zehn Experimenten wird das Ergebnis der Gruppe fast mit Sicherheit das bestmögliche sein. Das heißt, die simpelste Methode, um verlässlich gute Antworten zu erhalten, besteht darin, jedes Mal die Gruppe zu aktivieren.

Eine ähnlich direkte, zupackende Vorgehensweise scheint auch bei der Bewältigung anderer Probleme zu funktionieren. Dies vermochte der Physiker Norman L. Johnson anhand von Computersimulationen individueller »Agenten« auf dem Weg durch ein Labyrinth aufzuzeigen. Johnson, der im US-Bundesstaat New Mexico am Los Alamos National Laboratory auf dem Gebiet Theoretische Physik tätig ist, bewegte die Frage, inwieweit Gruppen zur Lösung von Problemen in der Lage sein könnten, mit denen auf sich gestellte Einzelpersonen Mühe haben. Er entwickelte ein Labyrinth mit vielen verschiedenen, kürzeren oder längeren Routen und schickte dann einen Agenten nach dem anderen hinein. Beim ersten Durchgang wanderten sie bloß umher, so wie man in einer völlig fremden Großstadt etwa nach einem Platz zum Ausruhen suchen mag. Wann immer sie eine Gabelung erreichten – einen »Knoten«, wie Johnson sie nannte –, bogen sie willkürlich nach links oder rechts. Auf diese Weise fanden manche Agenten – die einen rein zufällig rascher, andere ebenso zufällig langsamer – einen Weg ins Freie. Anschließend sandte Johnson die Agenten wieder ins Labyrinth, erlaubte ihnen jetzt aber, die Informationen zu nutzen, die sie sich beim ersten Gang angeeignet hatten, so als ob sie auf dem eingeschlagenen Weg beim ersten Mal einen »Ariadnefaden« ausgerollt hätten. Johnson wollte wissen, wie die Agenten ihre neu erworbenen Kenntnisse nutzten. Sie nutzten sie erwartungsgemäß gut und durchwanderten beim zweiten Mal das Labyrinth auf gewitztere Weise. Während sie beim ersten Mal durchschnittlich 34,3 Schritte bis zum Ausgang benötigt hatten, waren es beim zweiten Mal bloß 12,8 Schritte.

Schlüsselelement dieses Experiments war aber Folgendes: Um zur »kollektiven Lösung« des Problems zu gelangen, zog Johnson die Resultate aller individuellen Durchquerungen des Labyrinths heran. Im Labyrinth rechnete er aus, für welche Knoten sich die Mehrheit entschieden hatte; anschließend bahnte er den Weg, der sich infolge dieser Mehrheitsentscheidungen abzeichnete. (Wenn an einem bestimmten Knoten überwiegend links abgebogen wurde, nahm er an, dass die ganze Gruppe diese Richtung gewählt hatte. Knoten, bei denen sich ein Patt ergab, wurden willkürlich aufgeteilt.) Der so errechnete Weg der Gruppe bestand aus lediglich neun Schritten und war damit nicht nur kürzer als der Weg der durchschnittlichen Individuen (12,8 Schritte), sondern außerdem auch so kurz wie der Weg, den das klügste Individuum für sich entdeckt hatte. Im Übrigen stellte er die bestmögliche Lösung des Problems dar. Es gab keine Route, um das Labyrinth mit weniger als neun Schritten wieder zu verlassen. Folglich hatte die Gruppe die optimale Lösung gefunden. Hier stellt sich nun allerdings logisch die Frage: Unter den Bedingungen von Labors und Seminarräumen mag das Urteil von Gruppen oder Massen ja gut sein, doch wie sieht es in der Realität aus?

2

Am 28. Januar 1986 um 11.38 Uhr wurde die Trägerrakete, die die Raumfähre Challenger ins All befördern sollte, in Cape Canaveral gezündet und hob ab. 74 Sekunden später – sie hatte gerade eine Höhe von 16 Kilometern erreicht – explodierte sie. Da der Start des Spaceshuttles im Fernsehen übertragen wurde, verbreitete sich die Nachricht von dem Unglück rasch. Die erste Meldung kam acht Minuten nach der Explosion über den Dow-Jones-Nachrichtendienst.

Die Börse gönnte sich keine Trauerpause. Binnen Minuten begannen Investoren ihre Aktien jener Unternehmen abzustoßen, die maßgeblich am Projekt Challenger beteiligt waren: Rockwell International, den Konstrukteur des Shuttles und seiner Hauptantriebswerke, Lockheed, dem die Bodenunterstützung oblag, Martin Marietta, den Hersteller des externen Brennstoffbehälters, und Morton Thiokol, dessen Feststoff-Trägerrakete Challenger in den Weltraum katapultieren sollte. Zwanzig Minuten nach der Explosion war der Aktienwert von Lockheed um fünf, von Martin Marietta um drei und von Rockwell um sechs Prozent gefallen.

Am schlimmsten traf es die Morton-Thiokol-Aktie. Wie die Professoren Michael T. Maloney und J. Harold Mulherin in ihrer faszinierenden Studie über die Marktreaktion auf die Challenger-Katastrophe berichten, versuchte eine solch große Anzahl Investoren Thiokol-Aktien zu verkaufen und stieß dabei auf eine solch geringe Resonanz, dass der Handel fast unmittelbar darauf ausgesetzt wurde. Als die Aktie wieder gehandelt wurde – nahezu eine Stunde nach der Explosion –, hatte sie sechs Prozentpunkte eingebüßt. Bei Tagesende hatte sich der Wertverlust auf fast zwölf Prozent verdoppelt. Die Aktien der drei übrigen Unternehmen dagegen begannen sich bald wieder zu erholen, sodass ihr Wert bei Börsenschluss nur einen Rückgang um rund drei Prozent verzeichnete.

Das bedeutet: Der Aktienmarkt hatte sozusagen prompt Morton Thiokol als Sündenbock für die Challenger-Katastrophe auserkoren. Der Aktienmarkt ist, jedenfalls in der Theorie, eine Maschinerie zur Berechnung des aktuellen Wertes des gesamten »freien Cashflow«, den ein Unternehmen künftig verdienen wird. (Freier Cashflow ist das Kapital, das nach Begleichung aller Rechnungen und Steuern, nach Abschreibungen und Investitionen einem Unternehmen übrig bleibt. Es ist die Summe, die Sie mit nach Hause nehmen und auf Ihr Bankkonto einzahlen würden, wenn Sie der Alleininhaber wären.) Der Absturz der Thiokol-Aktie war – insbesondere verglichen mit den geringen Aktienverlusten der übrigen drei Unternehmen – ein klares Zeichen dafür, dass die Investoren Thiokol für verantwortlich hielten und mit für die Bilanzentwicklung des Unternehmens schwer wiegenden Folgen rechneten.

Wie Maloney und Mulherin ausführen, gab es am Tag des Unglücks jedoch keine öffentlichen Kommentare, die sich auf Thiokol als den Alleinschuldigen konzentriert hätten. In ihren Berichten des folgenden Morgens erwähnte die New York Times zwei Gerüchte, die rasch die Runde gemacht hatten; aber keines dieser beiden Gerüchte belastete Thiokol, und die Zeitung unterstrich dieses auch deutlich: »Hinsichtlich der Unglücksursachen gibt es keinerlei Anhaltspunkte.«

Trotzdem lag der Markt mit seiner Reaktion richtig. Wie eine vom US-Präsidenten eingesetzte Untersuchungskommission sechs Monate nach der Explosion feststellte, wurden die Dichtungsringe der seitlichen, von Thiokol hergestellten Trägerraketen, die ein Entweichen heißer Abgase verhindern sollten, aufgrund der Kälte porös, sodass sich Risse bildeten.

(Der Physiker Richard Feynman vermochte diesen Umstand bei einer Anhörung des US-Kongresses in einer berühmt gewordenen Demonstration nachzuweisen, indem er einen der Dichtungsringe in ein Glas mit Eiswasser fallen ließ. Als er ihn wieder herausholte, war er infolge des Temperatursturzes brüchig geworden.) Bei der Challenger hatten sich die ausgetretenen Gase entzündet, die Flammen waren in den Haupttank vorgedrungen und hatten dort die verheerende Explosion ausgelöst. Thiokol wurde für den Unfall haftbar gemacht. Die übrigen Unternehmen wurden entlastet.

Anders gesagt: Der Börsenmarkt wusste binnen einer halben Stunde nach der Shuttle-Explosion, wer die Schuld daran trug. Gewiss, es ging hier um ein Einzelereignis; insofern wäre es möglich, dass der Markt mit seiner korrekten Schuldzuweisung einfach Glück hatte. Oder das Geschäftsfeld des Unternehmens reagierte auf einen Abschwung des Raumfahrtprogramms besonders empfindlich. Vielleicht war auch das Aussetzen dieser Aktie an der Börse für die Investoren ein Hinweis gewesen, misstrauisch zu sein. All das sind wichtige Vorbehalte. Aber das Verhalten des Marktes bleibt dennoch irgendwie unheimlich, insbesondere weil der Börsenmarkt in diesem Fall rein als Waage fungierte, also ohne eine Beeinflussung durch die Faktoren – Medienspekulation, Impulshandel und »Wall Street Hype« –, die ihn zu einem eigentümlich unberechenbaren Mechanismus zur Bildung kollektiver Weisheit von Investoren machen. An diesem Tage war es so, dass Käufer und Verkäufer einfach nur intuitiv herausfinden wollten, was passiert war, und die richtige Antwort fanden.

Wie haben sie die richtige Antwort gefunden? Diese Frage trieb Maloney und Mulherin an den Rand der Verzweiflung. Sie prüften die Unterlagen zunächst auf »Insidertrading«: Konnten vielleicht Thiokol-Manager, die über die Verantwortlichkeit ihres Unternehmens im Bilde gewesen waren, am 28. Januar Thiokol-Aktien abgestoßen haben? Mitnichten. Diese Vermutung traf ebenso wenig auf Manager der übrigen drei Firmen zu, die ja möglicherweise vom Problem mit den Dichtungsringen gehört und sich deshalb von Thiokol-Aktien getrennt haben mochten. Nichts wies darauf hin, dass irgendwer Thiokol-Aktien auf den Markt geworfen und Aktien der übrigen drei Unternehmen erworben hatte (was für Personen mit Insiderwissen ein folgerichtiges Handeln gewesen wäre). Der Sturz der Thiokol-Aktie am Unglückstag war jedenfalls nicht allein durch gewitzte Insider verursacht worden. Er kam vielmehr durch die vielen – zumeist relativ uninformierten – Investoren zustande, die sich einfach weigerten, die Aktie zu kaufen.

Warum aber waren sie an Thiokol-Aktien nicht interessiert? Auf die Frage sind Maloney und Mulherin eine überzeugende Antwort schuldig geblieben. Sie legten sich schlussendlich auf die Annahme von Insiderinformationen als Ursache für den Wertverfall der Thiokol-Aktie fest, ohne jedoch erklären zu können, wie es dazu gekommen sein sollte. Es ist bezeichnend, dass sie sich auf ein Zitat von Maureen O’Hara, einer Wirtschaftswissenschaftlerin der Cornell University, zurückzogen: »Obwohl Märkte in der Praxis anscheinend funktionieren, ist uns nicht klar, wie sie in der Theorie funktionieren.«

Das mag ja sein. Nun stellt sich freilich die Frage, was unter »Theorie« zu verstehen ist. Auf die Kernfakten reduziert, hat sich an jenem 28. Januar Folgendes ereignet: Eine große Menge Einzelpersonen (die wirklichen und die potenziellen Aktionäre von Thiokol und den drei anderen in diese Geschichte involvierten Unternehmen) hatten die Frage zu beantworten: »Wie viel weniger sind die vier Unternehmen nach der Explosion der Challenger jetzt wert?« Und darauf gab es eine objektiv richtige Antwort. Eben das macht die Umstände aus, unter denen die Durchschnittsschätzung einer Gruppe von Menschen – genau das stellt in harter Münze ein Aktienwert schließlich dar – wahrscheinlich korrekt ausfällt. Mag ja auch sein, dass irgendwer in der Tat über Insiderwissen hinsichtlich der fehlerhaften Dichtungsringe verfügte. Es ist aber, selbst wenn dem nicht so wäre, plausibel, dass ein Zusammenkommen sämtlicher bruchstückhaften Informationen in den Köpfen aller Aktienhändler über die Explosion an jenem Tage sich der Wahrheit sehr annäherte. So wie es für all die Personen zutraf, die John Craven halfen, das verlorene U-Boot Scorpion zu finden: Auch wenn kein einziger der Aktienhändler sich der Schuld von Thiokol an dem Unfall gewiss gewesen ist – kollektiv waren sich dessen alle sicher.

An jenem Tag hat der Markt sich klug verhalten, weil er den vier Bedingungen genügte, die für die Weisheit der Masse notwendig sind: Meinungsvielfalt (das Individuum muss irgendwelche eigenen Informationen haben, selbst wenn sie nur eine ausgefallene Deutung der bekannten Fakten zulassen); Unabhängigkeit (die einzelnen Meinungen sind nicht durch Meinungen anderer in ihrem Umkreis geprägt); Dezentralisierung (die Menschen sind in der Lage, sich zu spezialisieren und lokal gegebenes Wissen heranzuziehen); und Aggregation (irgendein Mechanismus bündelt die individuellen Urteile zu einer kollektiven Entscheidung). Wenn eine Gruppe diese Bedingungen erfüllt, wird ihr Urteil mit hoher Wahrscheinlichkeit korrekt sein. Warum? Die Antwort auf die Frage liegt in einer mathematischen Binsenweisheit begründet. Fordert man eine hinreichende Zahl andersartiger, voneinander unabhängiger Personen zu einer Vorhersage oder der Einschätzung einer Wahrscheinlichkeit auf und errechnet danach den Mittelwert ihrer Schätzwerte, so werden die Fehler der Einzelnen einander ausgleichen. Jede individuelle Schätzung besteht gewissermaßen aus zwei Komponenten: aus Information und Irrtum. Man substrahiere den Irrtum, und was bleibt? Die Information.

Nun ist es aber auch nach Ausmerzen des Fehlerfaktors möglich, dass eine Gruppe ein schlechtes Urteil treffen wird. Damit eine Gruppe klug ist, muss nämlich in der Formel »Information minus Irrtum« für den Faktor »Information« auf jeden Fall eine minimale Größe gegeben sein. (Hätte man nach dem Challenger-Unglück eine Schar Kinder aufgefordert, Aktien zu kaufen und zu verkaufen, so wären die lieben Kleinen wohl kaum auf Thiokol als das für dieses Unglück verantwortliche Unternehmen gestoßen.) Auffallend ist aber – und dieser Umstand verleiht einer Redewendung wie der von der »Weisheit der Vielen« einen Sinn –, wie viel Informationen das kollektive Urteil einer Gruppe nur zu oft enthält. In Fällen wie Galtons Experiment oder der Explosion der Challenger entspricht das Kollektivbewusstsein der Masse nahezu der Wirklichkeit.

Vielleicht ist das auch gar nicht überraschend. Wir sind ja schließlich das Produkt einer Evolution und darum vermutlich ausgerüstet, die Realität zu verstehen. Nur: Wer hat denn bisher schon gewusst, dass wir, unter den rechten Umständen, die Welt kollektiv dermaßen gut verstehen? Man stelle doch nur einmal folgendes Gedankenspiel an: 100 Menschen träten zu einem 100-Meter-Lauf an, und man würde danach ihr Durchschnittstempo errechnen. Es würde nie besser sein als die Zeit des schnellsten Läufers – im Gegenteil: Es käme, ganz gleich, wie oft man einen solchen Lauf wiederholte, stets ein schlechteres, mittelmäßiges Resultat dabei heraus. Stellt man dagegen 100 Leuten eine Frage oder die Aufgabe, ein Problem zu lösen, so wird die durchschnittliche Antwort beziehungsweise Lösung des Problems oft mindestens so gut sein wie die Antwort des klügsten Gruppenmitglieds.

Für gewöhnlich bedeutet Durchschnitt Mittelmaß, bei Entscheidungsfindungen dagegen oft Leistungen von herausragender Qualität. Allem Anschein nach sind wir als Menschen also programmiert, kollektiv klug und weise zu sein.

3

Zu einer wirklich erfolgreichen Entscheidungsfindung bedarf es natürlich nicht nur einer Vorstellung davon, wie die Welt ist, sondern auch, wie die Welt sein wird (oder, zumindest, wie sie werden könnte). Es ist deshalb so, dass jede Form der Entscheidungsfindung unter ungewissen Bedingungen gut zu sein hat. Was aber wäre ungewisser als die Zukunft? Gruppenintelligenz mag ja gut sein, wenn es darum geht, die Anzahl von Geleebonbons in einem Glas zu schätzen oder zu erraten, wer im Endspiel der Fußballweltmeisterschaft 1954 das dritte Tor schoss. Was vermag sie aber unter Bedingungen echter Ungewissheit zu leisten, also dann, wenn die richtige Antwort allem Anschein nach offen ist – weil das Faktum noch gar nicht existiert?

Der Beantwortung dieser Frage ist die ganze berufliche Arbeit Robert Walkers gewidmet. Walker ist Sportwettendirektor im Hotel Mirage und im Casino von Las Vegas; er hat somit Woche für Woche tausende Wetten für sämtliche möglichen Sportarten, von Profifußball bis zu Basketballmatches von Topteams der Universitäten, zu erstellen. Für all diese Glücksspiele muss Walker eine Linie (beziehungsweise eine Punktverteilung) anbieten, mittels der er den Wettenden erklärt, welche Mannschaft Favorit ist und um wie viele Punkte sie vorn liegt. So eine Linie funktioniert ganz einfach. Angenommen, in dieser Woche ist das Footballteam der »New York Giants« gegenüber den »Rams« aus Saint Louis mit dreieinhalb Punkten favorisiert – wenn Sie auf die »Giants« setzen, müssen diese folglich mit vier oder mehr Punkten Unterschied gewinnen, damit Ihre Wette sich lohnt. Falls Sie umgekehrt jedoch auf die »Rams« setzen, müssen diese die »Giants« um dreieinhalb (oder weniger) Punkte abhängen. Bei anderen Sportarten werden die Wetten in Form von Gewinnchancen gestaltet: Wenn Sie auf den Favoriten setzen, müssen Sie etwa 150 Dollar platzieren, um 100 Dollar zurückzubekommen; sollten Sie dagegen den vermeintlich Schwächeren favorisieren, müssten Sie 75 Dollar auf den Tisch legen, um am Ende eventuell 100 Dollar einstreichen zu können.

Walkers Aufgabe als Buchmacher besteht nun nicht etwa darin herauszufinden, welche von zwei Mannschaften siegen wird. Das überlässt er, zumindest in der Theorie, den Wettteilnehmern. Er hat vielmehr dafür zu sorgen, dass die Glücksspieler auf beide Mannschaften etwa gleichhohe Beträge setzen. Gelingt es ihm, so weiß er, dass er die Hälfte der eingegangenen Wetten gewinnt und die andere Hälfte verliert. Und wieso kann Walker sich mit einem solchem Gleichstand begnügen? Weil Buchmacher bei jedem Wetteinsatz, den sie gewinnen, mehr einnehmen, als sie bei jeder Wette verlieren, die zu ihren Ungunsten ausgeht. Wenn man bei einem Buchmacher eine Wette für ein Glücksspiel nach dem Punktverteilungssystem platziert, muss man elf Dollar einsetzen, um zehn zu gewinnen. Stellen Sie sich nun einmal eine Wettsituation mit nur zwei Teilnehmern vor, von denen der eine auf den Favoriten, der andere auf das schwächere Team setzt. Dann würde Walker 22 Dollar einnehmen (von jedem elf) und dem Gewinner der Wette 21 Dollar auszahlen. Der eine Dollar, den er behält, macht seinen Gewinn aus. Diese kleine Spanne – »vigorish« oder kurz »vig« genannt – hält den Buchmacher über Wasser. Doch er kann sich dieses Vorteils nur sicher sein, wenn er zu verhindern weiß, dass zu viel Geld auf einer Seite der Wette ruht.

Damit diese Strategie gelingt, muss Walker die Punktverteilung so massieren, dass für beide Mannschaften Einsätze hereinkommen. »Die Linie, die wir brauchen, ist die Linie, die das Publikum spaltet, weil man dann erst den ›vig‹ verdient«, erklärt Walker. In der Woche vor dem Endspiel um die »Super Bowl« 2001, dem US-amerikanischen Footballfinale, beispielsweise lagen bei Mirage auf der Startlinie die »Baltimore Ravens« um zweieinhalb Punkte vorn. Nachdem diese Linie publik geworden war, verzeichnete Mirage einige frühe Einsätze in Höhe von 3000 Dollar auf Baltimore. Das war zwar nicht viel, aber genug, um Walker zu veranlassen, die Punktdifferenz auf drei zu erhöhen. Wenn alle auf Baltimore setzen wollten, war die Linie wahrscheinlich nicht die richtige. Folglich wurde die Linie verändert. Die Startlinie gibt der Buchmacher vor; danach bewegt sie sich weitgehend in Reaktion auf das Verhalten der Wettspieler – ähnlich wie an der Börse die Aktienkurse mit dem Ansteigen und Sinken der Nachfrage von Investoren.

Theoretisch ist es so, dass die Startlinie irgendwo festgelegt wird, und man könnte erwarten, dass sie sich von da an automatisch anpasst, sodass die Punktdifferenz jedes Mal steigt oder fällt, wenn sich zwischen den Summen, die auf jeder Seite gesetzt werden, ein signifikantes Ungleichgewicht ergibt. Im Mirage hätte man keine Mühe, es so zu halten: Walkers Computerdatenbank zeichnet die Einsätze laufend auf. Doch Buchmacher legen Wert darauf, die Startlinie so genau wie möglich festzulegen. Wird sie schlecht angesetzt, bleiben die Buchmacher nämlich mit einem Haufen schwacher Wetten sitzen. Sobald aber die Linie fixiert ist, ist sie der Kontrolle der Buchmacher entzogen; dann entspricht die Punktverteilung eines Glücksspiels zu guter Letzt dem kollektiven Urteil der Wettteilnehmer über das Endresultat der sportlichen Auseinandersetzung. Wie Bob Martin einmal bemerkte – während der siebziger Jahre der Wettguru in den USA: »Hat man erst einmal eine Zahl auf die Tafel notiert, so wird sie öffentliches Eigentum.«

Und das Publikum erweist sich als ziemlich clever. Es verfügt über keine Kristallkugel: Ausgehend von der anfänglichen Punktverteilung der Wetten beispielsweise lassen sich etwaige Endergebnisse von Spielen der National Football League (NFL) kaum vorhersagen. Selbst für gut informierte Glücksspieler ist es schwer, die endgültigen Resultate laufend zu prognostizieren. Bei etwa der Hälfte der Spiele liegen die Favoriten am Ende über dem Anfangspunktstand; bei der anderen Hälfte schneiden die als schwächer geltenden Mannschaften besser ab. Genau das wollen die Buchmacher erreichen. Und es gibt im Urteil des Marktes auch keine offenkundigen Fehler – etwa dass Mannschaften bei Heimspielen häufiger gewinnen, als die Masse voraussagt, oder dass Teams mit schlechter Heimspielbilanz durchgehend unterbewertet werden. Das Urteil der Masse birgt zwar gelegentlich Schwächen, doch in solchen Fällen handelt es sich meist um Dinge, wie sie eine jüngst veröffentliche Studie dokumentiert: dass Teams mit schlechter Heimspielbilanz in der 16., 17. und 18. Woche der National-Football-League-Saison traditionell den Wetteinsatz lohnen. Es ist also schwierig, die Masse der Wettenden auszustechen. In drei Vierteln der Fälle stellt die Schlusswettlinie bei Mirage die verlässlichste Vorhersage der Ergebnisse der NFL-Spiele dar.

Gleiches gilt für viele andere Sportarten. Weil die Sportwette so etwas wie ein Fertiglabor zur Erforschung des Verhältnisses von Vorhersagen und Endergebnissen bietet, haben Wissenschaftler scharenweise Wettmärkte auf ihre Effizienz überprüft, das heißt, um festzustellen, wie gut sie alle verfügbaren Informationen nutzen. Die Untersuchungen kommen zu einem übereinstimmenden Ergebnis: Bei allen Hauptsportarten agiert dieser Markt wirklich effizient. Es gibt Bereiche, in denen die Leistungen der Masse besonders gut ausfallen – so sagt beispielsweise der Schlussstand bei Pferderennwetten verlässlich die Reihenfolge der Sieger voraus (der Favorit gewinnt also am häufigsten, das am zweithöchsten gewettete Pferd wird am häufigsten Zweiter und so fort), und sie liefern auch, um den Wirtschaftswissenschaftler Raymond D. Sauer zu zitieren, »recht gute Schätzungen über die Wahrscheinlichkeit eines Sieges«. Mit anderen Worten: Ein auf drei zu eins gewettetes Pferd wird etwa bei einem Viertel der Rennen siegen. Es gibt Ausnahmen: In Sportarten und bei Spielen mit einem kleineren und weniger liquiden Wettmarkt sind Odds weniger zutreffend. (Hier können die Odds sich schon aufgrund einiger weniger Einsätze dramatisch verändern. Das gilt etwa für Hockey, Golf oder Basketballspiele zwischen Mannschaften unbekannterer Colleges.) Es sind solche Sportarten, bei denen professionelle Glücksspieler oft beträchtliche Beträge einheimsen können, und das entspricht unserer bereits gewonnenen Erkenntnis: Je größer die Gruppe, desto genauer ihr Urteil. Im Übrigen gibt es auch ein paar interessante Marotten: So neigen die Leute bei Pferderennwetten dazu, häufiger etwas zu riskieren und nicht auf Favoriten zu setzen, wie es gewöhnlich der Fall wäre. (Es scheint sich hier um ein Phänomen bewussten Risikoverhaltens zu handeln: Glücksspieler – in Sonderheit Glücksspieler, die verloren haben –, würden eher einen Außenseiter bevorzugen, um mit diesem als Sieger das große Geld abzuräumen, als sich mittels Einsätzen auf »todsichere« Favoriten mit entsprechend niedrigeren Gewinnen abzufinden.) Alles in allem ist jedoch festzuhalten: Wenn Wetter kollektiv schon nicht die Zukunft vorherzusagen vermögen, tun sie doch das nächstbeste Mögliche.

4

Vor kurzem benötigte ich ganz dringend den genauen Wortlaut von Bill Murrays Song Caddyshack über einen »Caddy«, der dem Dalai Lama die Tasche mit den diversen Golfschlägern hinterherschleppt. Die refrainartig wiederholte Pointe lautet: »So I got that going for me, which is nice«, worauf Murray zufolge der Dalai Lama dann jedes Mal sagt: »Gunga galunga.« Also warf ich die Internet-Suchmaschine Google an, tippte »going for me« und »gunga« ein und klickte die Suchtaste. Daraufhin wurden 695 Webseiten aufgelistet, voran ein Artikel aus GolfOnline, der den zweiten Teil des Songtextes zitierte. Na schön. Doch bereits an dritter Stelle folgte die Webseite eines gewissen »Penn State Soccer Club«, dessen Torhüter, ein Mann namens David Feist, den gesamten Liedtext eingegeben hatte. Das Surfen hatte 0,18 Sekunden beansprucht.

Ein wenig später musste ich eine Passage des zuvor erwähnten Berichts von Mulherin über die Challenger überprüfen, konnte mich aber nicht mehr an den Namen des Verfassers erinnern, weshalb ich »stock market challenger reaction« eingab und daraufhin mit 2370 Webseiten beglückt wurde. An erster Stelle kam ein in der Zeitschrift Slate veröffentlichter Artikel von Daniel Gross über den Text von Mulherin, an dritter Stelle die Website von Mulherin selbst, die einen Link zum gesuchten Artikel enthielt. Diese Suche – man bitte zu bedenken, dass sie ohne den Namen Mulherins erfolgte – dauerte 0,10 Sekunden. Ein paar Minuten danach surfte ich nach dem Text eines Songs von Ramones über Ronald Reagans Besuch des Soldatenfriedhofs von Bitburg in der Eifel. Nach 0,23 Sekunden hatte ich das Gesuchte gefunden. Es war gleich in der ersten Referenz der Suchliste enthalten.

Wer das Internet regelmäßig nutzt, wird von solchen Beispielen dessen, was Google zu leisten vermag, nicht überrascht sein. Wir haben uns daran gewöhnt, bei Google prompt Antworten mit eben der benötigten Webseite auf der Checkliste obenan zu finden. Es wäre jedoch angebracht, einmal über die Vorgänge im Verlauf solcher Routinesuche zu staunen. Bei jedem der erwähnten drei Surfvorgänge hat Google Milliarden Webseiten gecheckt und dabei genau die Seiten herausgefischt, die ich am meisten benötigte. Die Gesamtzeit für die Suchläufe betrug dabei etwa anderthalb Minuten.

Google wurde 1998 gegründet – zu einem Zeitpunkt, als Yahoo! das Internet-Suchgeschäft zu beherrschen schien –, und wäre, falls Yahoo! im harten Konkurrenzkampf den Kürzeren gezogen hätte, von AltaVista und Lycos verdrängt werden. Binnen weniger Jahre hatte sich dann jedoch Google als die Suchmaschine für alle regelmäßigen Internet-Nutzer etabliert, einfach nur, weil es die richtige Seite schnell zu finden vermochte. Und die Methode, mit der Google dies gelingt – wobei es jedes Mal drei Milliarden Websites überprüft –, ist auf die Weisheit der Massen gebaut.

Die Details seiner Technologie behält man bei Google für sich. Kernstück des Google-Systems ist jedoch der so genannte PageRank-Algorithm, der von den Unternehmensgründern Sergey Brin und Lawrence Page in einem mittlerweile legendären Aufsatz unter dem Titel »The Anatomy of a Large-Scale Hypertextual Web Search Engine« erstmals 1998 definiert wurde. PageRank ist ein Algorithmus – ein Kalkulationsmechanismus –, der es allen Webseiten im Internet überlässt zu entscheiden, welche Seite für eine bestimmte Suche die relevanteste ist. Google stellt es so dar:

»PageRank nutzt die einmalig demokratische Eigenschaft des Web, indem es dessen riesige Link-Struktur als organisatorisches Werkzeug einsetzt. Im Kern deutet Google ein Link von Seite A zu Seite B als Votum von Seite A für Seite B. Die Bedeutung einer Seite wird von Google aufgrund der Stimmen ermittelt, die diese Seite erhält. Google zieht allerdings mehr als nur die bloße Menge solcher Stimmen, oder Links, in Betracht. Google analysiert auch die Seite, die das Votum abgibt. Seiten, die selbst ›von Bedeutung‹ sind, haben größeres Gewicht und tragen dazu bei, andere Seiten ›bedeutsam‹ zu machen.«

In den oben erwähnten 0,12 Sekunden beispielsweise fordert Google das gesamte Web auf zu entscheiden, welche Seite die nützlichste Information enthält, und die Seite, die die meisten Stimmen erhält, rückt auf der Antwortliste nach ganz oben. Und diese Seite – oder die sich gleich daran anschließende – ist in der Regel tatsächlich die Seite mit der brauchbarsten Information.

Nun ist Google zwar eine Republik, doch keine perfekte Demokratie. Es ist eben so, wie die zitierte Selbstdarstellung sagt: Je mehr Menschen sich mit einer Seite verlinkt haben, desto mehr Einfluss hat diese Seite auf die letztliche Entscheidung. Diese ist – wie der Preis einer Aktie oder die Punkteverteilung bei den Wetten über Spiele der National Football League auch – kein einfacher Mittelwert, so wie es der Schätzwert des Ochsengewichts war, sondern ein »gewichteter Durchschnitt«. Die starken Seiten, die von besonderem Einfluss auf die definitive Entscheidung der Masse sind, verdanken diesen Enfluss freilich den Stimmen, die ihnen die unwichtigeren Seiten gegeben haben. Wenn die unwichtigeren Websites falschen Websites zu große Bedeutung verliehen, würden die Google-Suchergebnisse nicht korrekt ausfallen. Schlussendlich regiert also noch immer die Masse. Damit oben ein kluges Resultat aufscheint, muss das System durchgängig klug sein.

5

Wenn die Ermöglichung von Sportwetten zum Aufbau einer Maschinerie führt, die dann brauchbare Ergebnisvoraussagen für Sportereignisse zeitigt, stellt sich natürlich die Frage: Würden Leute beim Wetten auf andere Ereignisse diese nicht kollektiv ebenso gut prognostizieren? Warum sollten wir uns darauf beschränken zu erfahren, welche Chancen für einen Sieg von Bayern München über Real Madrid bestehen, wenn es auch möglich wäre herauszubekommen, wie beispielsweise die Aussichten von Angela Merkel gegen Gerhard Schröder sind?

Nun gibt es freilich bereits ein bewährtes Instrument, um die Chancen Angela Merkels zu ermitteln: die Wahlumfrage. Wenn man wissen will, wie die Bevölkerung abstimmen wird, braucht man sich bloß an die demoskopischen Institute zu wenden. Wahlumfragen sind relativ genau. Die Institute arbeiten mit einer soliden Methodologie und halten sich an die strengen Regeln der Statistik. Dennoch besteht Anlass zu fragen, ob ein Markt wie der Wettmarkt – einer, der es den Teilnehmern erlaubt, sich auf viele unterschiedliche Formen von Information einschließlich, aber nicht ausschließlich, Wahlumfragen zu stützen – nicht vielleicht eine Alternative zu Infratest bieten könnte, eine Alternative, die mindestens ebenso leistungsfähig wäre. Aus diesem Grunde ist in den USA das Projekt der Iowa Electronics Markets (IEM) gegründet worden.

Ins Leben gerufen wurde IEM 1988, durchgeführt wird es vom College of Business der Universität von Iowa, und es unterhält eine Fülle von Märkten, die sich auf den Ausgang von Wahlen beziehen – US-Präsidentschafts-, Kongress- und Gouverneurs-, aber auch ausländische Wahlen. Mitmachen kann jeder, der will – das IEM macht es möglich, mit Anteilen an »Termingeschäften« zu handeln, die darauf basieren, wie nach ihrer Meinung irgendein bestimmter Kandidat in einer bevorstehenden Wahl abschneiden wird. Es bietet viele verschiedene Arten von Ausschreibungen an, von denen zwei besonders wichtig sind. Die erste bezweckt, den Sieger einer Wahl vorherzusagen. So hat man beispielsweise 2003 anlässlich der Abstimmung zur Absetzung des Gouverneurs in Kalifornien ein Vertragspapier mit der Voraussage »Arnold Schwarzenegger wird siegen« kaufen können, für das man bei einem tatsächlichen Wahlsieg »Arnies« einen Dollar ausbezahlt, bei seiner Niederlage jedoch nichts bekommen hätte. Der jeweils aktuelle Kaufpreis eines solchen Kontrakts reflektiert die Erwartung des Marktes hinsichtlich der Chancen des Kandidaten. Wenn das Papier eines Kandidaten 50 Cent kostet, so heißt das etwa, dass der Markt dem Kandidaten eine fünfzigprozentige Siegeschance einräumt; beträgt der Preis 80 Cents, so wird ihm eine achtzigprozentige Chance zugebilligt und so fort.

Die zweite stark genutzte Form einer IEM-Ausschreibung zielt auf die Vorhersage des Prozentsatzes der Wählerstimmen, die ein Kandidat auf sich vereinigen wird. In diesem Fall werden die Auszahlungen durch die jeweiligen Wählerprozente bestimmt: Hätte man beispielsweise im Jahr 2000 ein George-W.-Bush-Papier erworben, so wäre man nach der damaligen US-Präsidentschaftswahl um 48 Cents reicher gewesen. (George W. Bush erhielt damals nämlich 48 Prozent der Stimmen.)

Sind die Vorhersagen des IEM korrekt, so werden die Preise für solche Papiere dem realen Abstimmungswert annähernd entsprechen. Auf dem Markt der Vorhersagen von Wahlsiegern sollte der Favorit stets gewinnen; je höher er in der Gunst des Wahlvolks steht, desto klarer müsste er hier gewinnen.

Und wie hat sich das IEM geschlagen? Nun, die Resulate des IEM für 49 verschiedene Wahlgänge im Zeitraum von 1988 bis 2000 sind Gegenstand einer wissenschaftlichen Untersuchung gewesen, die zu folgendem Resultat gelangte: Die Preise für IEM-Papiere am Vorabend der Wahl differierten bei Präsidentschaftswahlen nur um 1,37, bei anderen US-Wahlen bloß um 3,43 und bei Wahlen im Ausland lediglich um 2,12 Prozent mit dem realen Wahlergebnis. (Es handelt sich hier um absolute Zahlen, das heißt, der Markt hätte um 1,37 Prozent danebengelegen, wenn seine Vorhersage eingetroffen wäre, dass Al Gore, der Präsidentschaftskandidat der Demokraten, 48,63 Prozent der Wählerstimmen erhalten würde – in Wirklichkeit erhielt Al Gore bekanntlich 50 Prozent.) Dem IEM ist es mittlerweile gelungen, die etablierten demoskopischen Institute an Präzision zu übertrumpfen; es hat sogar schon Monate vor der jeweiligen Wahl mit exakteren Zahlen Aufsehen erregt. So sind etwa bezüglich der US-Präsidentschaftswahlen zwischen 1988 und 2000 nicht mehr und nicht weniger als 596 verschiedene Wahlumfragen veröffentlicht worden. Am Tag ihrer Bekanntgabe war der IEM-Marktpreis in drei Vierteln der Fälle genauer. Wahlumfragen neigen zu großer Unbeständigkeit; die Stimmanteile der Kandidaten unterliegen mitunter starken Schwankungen. Die IEM-Vorhersagen ändern sich zwar ebenfalls laufend, sie sind aber erheblich weniger volatil; zu dramatischen Veränderungen kommt es hier nur infolge neuer Informationen. Eben das macht sie als Vorhersagen verlässlicher.