Hello World - Hannah Fry - E-Book

Hello World E-Book

Hannah Fry

0,0
8,49 €

oder
-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Weitere Informationen zum Buch und zur Autorin finden Sie beim Special

Sie sind eines Verbrechens angeklagt. Wer soll über Ihr Schicksal entscheiden? Ein menschlicher Richter oder ein Computer-Algorithmus? Sie sind sich absolut sicher? Sie zögern womöglich? In beiden Fällen sollten Sie das Buch der jungen Mathematikerin und Moderatorin Hannah Fry lesen, das mit erfrischender Direktheit über Algorithmen aufklärt, indem es von Menschen handelt.

Algorithmen prägen in wachsendem Ausmaß den Alltag von Konsum, Finanzen, Medizin, Polizei, Justiz, Demokratie und sogar Kunst. Sie sortieren die Welt für uns, eröffnen neue Optionen und nehmen uns Entscheidungen ab - schnell, effektiv, gründlich. Aber sie tun das, ohne zu fragen, und stellen uns vor neue Dilemmata. Vor allem jedoch: Wir neigen dazu, Algorithmen als eine Art Autorität zu betrachten. statt ihre Macht infrage zu stellen.

Keine Dimension unserer Welt, in der sie nicht längst Einzug gehalten haben: Algorithmen, diese unscheinbaren Folgen von Anweisungen, die im Internet sowieso, aber auch in jedem Computerprogramm tätig sind, prägen in wachsendem, beängstigendem Ausmaß den Alltag von Konsum, Finanzen, Medizin, Polizei, Justiz, Demokratie und sogar Kunst. Sie sortieren die Welt für uns, eröffnen neue Optionen und nehmen uns Entscheidungen ab - schnell, effektiv, gründlich. Aber sie tun das häufig, ohne uns zu fragen, und sie stellen uns vor neue, keineswegs einfach zu lösende Dilemmata. Vor allem aber: Wir neigen dazu, Algorithmen als eine Art Autorität zu betrachten, statt ihre Macht in Frage zu stellen. Das öffnet Menschen, die uns ausbeuten wollen, Tür und Tor. Es verhindert aber auch, dass wir bessere Algorithmen bekommen. Solche, die uns bei Entscheidungen unterstützen, anstatt über uns zu verfügen. Die offenlegen, wie sie zu einer bestimmten Entscheidung gelangen. Demokratische, menschliche Algorithmen. Dafür plädiert dieses Buch - zugänglich, unterhaltsam, hochinformativ.

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Hannah Fry

Hello World

Was Algorithmen können und wie sie unser Leben verändern

Aus dem Englischen von Sigrid Schmid

C.H.BECK

Zum Buch

Sie sind eines Verbrechens angeklagt. Wem trauen Sie die bessere Entscheidung über Ihr Schicksal zu? Einem menschlichen Richter oder einem Computer-Algorithmus? Algorithmen, diese unscheinbaren Folgen von Anweisungen, die im Internet sowieso, aber auch in jedem Computerprogramm tätig sind, prägen in wachsendem, beängstigendem Ausmaß unser Leben. Sie sortieren die Welt für uns, eröffnen neue Optionen und nehmen uns Entscheidungen ab – schnell, effektiv, gründlich. Aber sie tun das, ohne uns zu fragen, und sie stellen uns vor neue, keineswegs einfach zu lösende Dilemmata. Vor allem jedoch: Wir neigen dazu, Algorithmen als eine Art Autorität zu betrachten, statt ihre Macht infrage zu stellen. Das öffnet Menschen, die uns ausbeuten wollen, Tür und Tor. Es verhindert aber auch, dass wir bessere Algorithmen bekommen. Solche, die uns bei Entscheidungen unterstützen, anstatt über uns zu verfügen. Die offenlegen, wie sie zu einer bestimmten Entscheidung gelangen. Demokratische, menschliche Algorithmen. Dafür plädiert dieses Buch – zugänglich, unterhaltsam, hochinformativ.

«Klug, pointiert und witzig geschrieben. Eine perfekte Anleitung für das Leben im Zeitalter der sozialen Medien, der Algorithmen und der Automatisierung.» – Adam Rutherford

«Dieser wunderbar zugängliche Leitfaden, der leichtfüßig von einer Geschichte zu anderen hüpft, ohne dem Leser die entscheidenden Fragen zu ersparen, verdient einen Platz auf der Bestsellerliste.» – Oliver Moody, The Times

Über die Autorin

Hannah Fry ist außerordentliche Professorin für Mathematik am University College London und erforscht mithilfe mathematischer Modelle Muster menschlichen Verhaltens im städtischen Raum. Sie hat mit Verwaltungen, Polizei, Gesundheitsexperten und Supermarktketten zusammengearbeitet und an wissenschaftlichen Fernsehdokumentationen und Podcasts mitgewirkt. Die Zahl der Aufrufe ihrer TED-Talks geht in die Millionen.

Inhalt

Anmerkung zum Buchtitel

Einleitung

Macht

Zurück zu den Grundlagen

Blindes Vertrauen

Künstliche Intelligenz trifft auf natürliche Dummheit

Wann man den Computer überstimmen sollte

Machtkampf

Daten

Jedes bisschen hilft

Zielmarkt

Der Wilde Westen

Cambridge Analytica

Mikromanipulation

Bewerte mich

Justiz

Das Problem der Gleichbehandlung

Die Gerechtigkeitsgleichung

Der Publikumsjoker

Mensch versus Maschine

Auf der Suche nach Darth Vader

Maschinelle Vorurteile

Schwierige Entscheidungen

Zusammenfassung

Medizin

Musterjäger

Sehende Maschinen

Eine KI-Allianz

Die Nonnen-Studie

Die Macht der Vorhersage

Digitale Diagnose

Elementar, mein Lieber

Das Datenproblem

Datenschutzprobleme

Verräterische Gene

Das oberste Wohl?

Autos

Was ist um mich herum?

Die große Gemeinde von Pfarrer Bayes

Sollte ein selbststeuerndes Auto einen Fußgänger überfahren, um das Leben der Insassen zu retten?

Gegen die Straßenverkehrsordnung verstoßen

Das Firmen-Baby

Paradoxe der Automatisierung

Hohe Erwartungen

Kriminalität

Operation Luchs und der Rasensprenger

Eine Karte für die Zukunft

Signal und Verstärker

Der kriminalistische Tippgeber

Praktische Umsetzung der Prognosen

Für wen halten Sie sich?

Doppelbilder

Eins zu einer Million?

Per Saldo

Der schwierige Kompromiss

Kunst

Viele Welten

Die Jagd nach den Hits

Wie misst man Qualität?

«Gute Künstler kopieren, große Künstler stehlen» (Picasso)

Schluss

Mensch plus Maschine

Dank

Anmerkungen

Anmerkung zum Buchtitel

Einleitung

Macht

Daten

Justiz

Medizin

Autos

Kriminalität

Kunst

Schluss

Register

BILDNACHWEIS

Für Marie Fry

Und alle irischen Mütter, die ein Nein nicht akzeptieren

Anmerkung zum Buchtitel

Als ich sieben Jahre alt war, brachte mein Vater ein Geschenk für meine Schwester und mich nach Hause. Es war ein ZX Spektrum, ein kleiner 8-Bit-Computer – unser erster eigener Computer. Er war schon seit Jahren veraltet, als er zu uns kam, aber ich fand diese niedliche Maschine sofort toll, auch wenn sie gebraucht war. Der Spektrum entsprach ungefähr einem Commodore 64 (den aber nur die wirklich reichen Kinder in unserem Viertel hatten), aber ich fand den Spektrum immer schöner. Das glatte schwarze Plastikgehäuse passte in beide Hände, und die grauen Gummitasten und der regenbogenfarbene Streifen, der sich diagonal über eine Ecke zog, hatten etwas Freundliches an sich.

Für mich markierte die Ankunft des ZX Spektrum den Beginn eines denkwürdigen Sommers, den ich mit meiner Schwester auf dem Dachboden verbrachte, wo wir Galgenmännchen-Spiele programmierten oder einfach nur mit Code irgendwelche Formen zeichneten. All das «fortgeschrittene» Zeug kam später. Erst mussten wir die Grundlagen beherrschen.

An den genauen Moment, in dem ich mein erstes Computerprogramm schrieb, kann ich mich heute nicht mehr erinnern, aber ich bin mir ziemlich sicher, was es war: dasselbe einfache Programm, das ich später all meinen Studenten am University College London beibrachte; dasselbe Programm, das man auf der ersten Seite von praktisch jedem Anfängerlehrbuch über Informatik findet – fast eine Art Initiationsritual. Als erste Aufgabe soll jeder Anfänger ein Programm schreiben, das zwei berühmte Worte auf dem Bildschirm erscheinen lässt:

«HELLO WORLD»

Diese Tradition stammt aus den 1970er-Jahren. Damals verwendete Brian Kernighan diesen Satz als Übungsbeispiel in seinem unglaublich erfolgreichen Programmierlehrbuch.[1] Das Buch – und damit auch der Beispielsatz – markierte einen wichtigen Punkt in der Geschichte der Computer. Der Mikroprozessor war gerade erst auf den Markt gekommen und läutete den Übergang von den Computern, wie man sie bisher gekannt hatte – riesigen spezialisierten Geräten, die mit Lochkarten und -streifen gefüttert wurden –, zu den Personal Computern ein, die wir heute gewohnt sind, mit Bildschirm, Tastatur und blinkendem Cursor. «Hello world» kam in dem Moment auf, in dem es erstmals möglich war, sich mit seinem Computer zu unterhalten.

Jahre später erzählte Brian Kernighan in einem Forbes-Interview, wie er auf die Idee zu diesem Satz gekommen war. Er hatte einen Cartoon gesehen, der ein Ei mit einem neu geschlüpften Küken zeigte, das bei seiner Geburt die Worte «Hello world!» piepste, und der Satz war bei Kernighan hängen geblieben.

Wer in diesem Szenario das Küken sein soll, ist nicht ganz klar: der unverbrauchte Mensch, der triumphierend seinen Eintritt in die Welt der Programmierung verkündet? Oder der Computer selbst, der aus einem banalen Schläfchen mit Tabellen und Textdokumenten erwacht, bereit, sein Denken mit der realen Welt zu verbinden und den Anweisungen seines neuen Herrn zu folgen? Vielleicht beides. Aber auf jeden Fall vereint diese Wendung alle Programmierer und verbindet sie mit jedem Computer, der je programmiert worden ist.

Doch mir gefällt an diesem Satz noch etwas anderes – etwas, das noch nie so relevant oder bedeutsam war wie heute. In einer Zeit, in der Computeralgorithmen zunehmend unsere Zukunft kontrollieren und bestimmen, erinnert uns «Hello world» an einen kurzen Dialog zwischen Mensch und Maschine. An einen Augenblick, in dem die Grenze zwischen Kontrollierendem und Kontrolliertem nicht mehr wahrnehmbar war. Er markiert den Anfang einer Partnerschaft – einer gemeinsamen Reise der Möglichkeiten, bei der keiner ohne den anderen existieren kann.

Im Zeitalter der Algorithmen lohnt es sich, sich an diese Stimmung zu erinnern.

Einleitung

Wer Jones Beach auf Long Island, New York besucht, fährt auf dem Weg zum Ozean unter mehreren Brücken hindurch. Diese Brücken sind hauptsächlich dafür gedacht, Menschen vom Highway herunterfahren und in den Highway einfädeln zu lassen, haben aber eine ungewöhnliche Eigenschaft. Sie wölben sich außerordentlich tief über dem Verkehr, an manchen Stellen beträgt die Durchfahrtshöhe nur 2,80 Meter.

Für diese eigenwillige Konstruktion gibt es einen Grund: In den 1920er-Jahren war der mächtige New Yorker Stadtplaner Robert Moses sehr daran interessiert, sein erst kürzlich vollendetes, preisgekröntes Naturschutzgebiet am Jones Beach weißen und wohlhabenden Amerikanern vorzubehalten. Er wusste, dass seine bevorzugten Besucher in ihren Privatautos zum Strand fahren, während Menschen aus den armen, schwarzen Vierteln den Bus nehmen würden. Daher ließ er Hunderte niedriger Brücken entlang des Highways bauen, um so den Zugang zu beschränken. Für dreieinhalb Meter hohe Busse waren die Brücken nämlich zu niedrig.[1]

Rassistische Brücken sind nicht die einzigen unbelebten Objekte, die unbemerkt Kontrolle über Menschen ausüben. In der Geschichte gibt es jede Menge Beispiele für Objekte und Erfindungen, die eine Macht ausübten, die über ihren erklärten Zweck hinausging.[2] Manchmal bauten die Erfinder das bewusst und in böswilliger Absicht in ihre Entwicklungen ein, aber manchmal war das auch einfach nur die Folge eines Fehlers: Man denke nur an die fehlenden Zufahrtsmöglichkeiten für Rollstühle in Städten. Manchmal ist die Folge unbeabsichtigt, wie zum Beispiel bei den mechanischen Webstühlen des 19. Jahrhunderts. Sie sollten die Herstellung komplizierter Textilien vereinfachen, aber letzten Endes waren sie wegen ihres Einflusses auf Löhne, Arbeitslosigkeit und Arbeitsbedingungen mutmaßlich größere Tyrannen als jeder viktorianische Kapitalist.

Bei modernen Erfindungen ist das nicht anders. Dazu muss man nur die Einwohner des nordenglischen Städtchens Scunthorpe befragen, die keine AOL-Konten eröffnen konnten, nachdem der Internetriese einen neuen Filter eingerichtet hatte, der den Namen ihrer Stadt für zu anstößig befand. Das Problem war das «cunt» in Scunthorpe, das die Bewohner einer ganzen Stadt stigmatisierte.[3] Oder den Nigerianer Chukwuemeka Afigbo, der feststellte, dass ein automatischer Seifenspender perfekt funktionierte, wenn sein weißer Freund seine Hand unter den Apparat hielt, der aber seine dunklere Haut nicht erkannte.[4] Oder Mark Zuckerberg, der sich nie hätte träumen lassen, dass man seiner Schöpfung später vorwerfen würde, sie würde Wahlmanipulationen weltweit ermöglichen, als er im Jahr 2004 in seinem Wohnheimzimmer den Code für Facebook schrieb.[5]

Hinter all diesen Erfindungen steckt ein Algorithmus. Diese unsichtbaren Algorithmen, die die Schrauben und Rädchen des modernen Maschinenzeitalters bilden, haben zahllose Dinge ermöglicht, von Social-Media-Feeds bis zu Suchmaschinen, von der Satellitennavigation bis zu automatischen Musikempfehlungen. Sie sind ebenso Teil unserer modernen Infrastruktur wie Brücken, Gebäude und Fabriken. Sie sind in unseren Krankenhäusern, unseren Gerichtssälen und Autos zu finden. Sie werden von Polizei, Supermärkten und Filmstudios eingesetzt. Sie haben unsere Vorlieben und Abneigungen gelernt. Sie sagen uns, was wir anschauen, was wir lesen und mit wem wir ausgehen sollen. Gleichzeitig üben sie eine geheime Macht aus: Sie verändern langsam und unmerklich, was es heißt, ein Mensch zu sein.

In diesem Buch werden wir uns mit der riesigen Bandbreite an Algorithmen beschäftigen, auf die wir uns zunehmend, wenn auch möglicherweise unbewusst, verlassen. Wir werden ebenso genau ihre Versprechungen wie ihre unausgesprochene Macht untersuchen und wir werden uns den unbeantworteten Fragen stellen, die sie aufwerfen. Wir werden Algorithmen kennenlernen, mit denen die Polizei entscheidet, wer verhaftet wird, und die uns zwingen, zwischen dem Schutz eines Verbrechensopfers und der Unschuld der Beschuldigten zu wählen. Wir werden Algorithmen sehen, mit denen Richter das Strafmaß für überführte Verbrecher festlegen und die uns zwingen zu entscheiden, wie unser Justizsystem aussehen soll. Wir werden auf Algorithmen stoßen, von denen Ärzte ihre eigenen Diagnosen überstimmen lassen; Algorithmen in fahrerlosen Autos, die erzwingen, dass wir unsere moralischen Werte definieren; Algorithmen, die beeinflussen, wie wir unsere Emotionen ausdrücken; und Algorithmen mit der Macht, die Demokratie zu untergraben.

Ich behaupte nicht, dass Algorithmen von Natur aus schlecht sind. Es gibt viele Gründe dafür, positiv und optimistisch in die Zukunft zu blicken, das wird auf diesen Seiten deutlich werden. Kein Objekt und kein Algorithmus ist je von sich aus gut oder böse. Entscheidend ist, wie sie verwendet werden. GPS wurde für den Start von Atomraketen entwickelt und erleichtert jetzt Pizzalieferungen. In Dauerschleife gespielte Popmusik wird zur Folter eingesetzt. Und mit der schönsten Blumenkette könnte man jemanden erwürgen. Wenn man sich eine Meinung zu einem Algorithmus bilden will, muss man die Beziehung zwischen Mensch und Maschine verstehen. Jeder Algorithmus ist untrennbar mit den Menschen verbunden, die ihn entwickeln und anwenden.

Daher ist dieses Buch im Kern ein Buch über Menschen. Es handelt davon, wer wir sind, wohin wir gehen, was uns wichtig ist und wie wir uns durch Technologie verändern. Es handelt von unserer Beziehung zu Algorithmen, die es schon gibt, die mit uns zusammenarbeiten, unsere Fähigkeiten verstärken, unsere Fehler korrigieren, unsere Probleme lösen und gleichzeitig neue Probleme erzeugen.

Es handelt von der Frage, ob ein Algorithmus unter dem Strich der Gesellschaft nützt. Wann man einer Maschine mehr vertrauen soll als dem eigenen Urteilsvermögen und wann man der Versuchung widerstehen sollte, der Maschine die Kontrolle zu überlassen. Es handelt davon, wie Algorithmen offengelegt und ihre Grenzen gefunden werden; und wie wir uns selbst finden können, wenn wir uns genau unter die Lupe nehmen. Es handelt davon, wie man Schädliches von Nützlichem unterscheidet, und von der Entscheidung, in welcher Welt wir leben wollen.

Weil die Zukunft nicht einfach so passiert. Wir erschaffen sie.

Macht

Garri Kasparow wusste genau, wie er seine Rivalen einschüchtern konnte. Mit 34 Jahren war er der beste Schachspieler, den die Welt je gesehen hatte, und sein Ruf allein reichte aus, um jeden Gegner nervös zu machen. Doch er hatte auch noch einen besonderen Tick, den seine Konkurrenten fürchteten. Während sie schwitzend beim wahrscheinlich schwersten Spiel ihres Lebens saßen, hob der Russe ganz beiläufig seine Armbanduhr auf, die neben dem Schachbrett lag, und legte sie wieder um sein Handgelenk. Dieses Signal verstand jeder – es bedeutete, dass Kasparow sich langweilte. Die Armbanduhr war eine Anweisung an seine Gegner, das Spiel verloren zu geben. Sie konnten sich weigern, aber Kasparows Sieg war in jedem Fall unvermeidbar.[1]

Doch Deep Blue von IBM war bei seinem berühmten Match gegen Kasparow im Mai 1997 gegen solche Taktiken immun. Wie das Spiel ausging, ist bekannt, aber die Hintergrundgeschichte, wie Deep Blue sich den Sieg sicherte, kennen nur wenige. Der symbolische Sieg der Maschine über den Menschen markierte in vielerlei Hinsicht den Beginn des algorithmischen Zeitalters, war aber nicht nur das Ergebnis reiner, massiver Rechenleistung. Um Kasparow zu schlagen, musste Deep Blue den Schachgroßmeister nicht nur als hocheffizienten Planer brillanter Schachzüge verstehen, sondern auch als Mensch.

Zunächst einmal trafen die Ingenieure bei IBM die brillante Entscheidung, Deep Blue unsicherer wirken zu lassen, als er war. Bei den sechs Spielen des berühmten Duells zögerte der Computer immer wieder, nachdem er seine Berechnungen beendet hatte, bevor er seinen nächsten Zug anzeigte – manchmal mehrere Minuten lang. Für Kasparow sah das so aus, als habe die Maschine Probleme und rattere immer mehr Berechnungen durch. Das schien zu bestätigen, was Kasparow vermutete: dass er das Spiel in eine Position gebracht hatte, an der es so unfassbar viele Möglichkeiten gab, dass Deep Blue keine vernünftigen Entscheidungen mehr treffen konnte.[2] In Wirklichkeit stand die Maschine aber einfach inaktiv da, genau wissend, wie sie spielen musste, und ließ die Zeit verstreichen. Es war ein hinterhältiger Trick, aber er funktionierte. Schon im ersten Spiel des Duells begann Kasparow zu hinterfragen, wie leistungsfähig die Maschine tatsächlich war, und ließ sich davon ablenken.[3]

Kasparow gewann das erste Spiel, aber im zweiten Spiel war die Verwirrungstaktik von Deep Blue erfolgreich. Kasparow versuchte, den Computer in eine Falle zu locken, indem er ein paar Figuren so aufstellte, dass der Computer sie schlagen konnte, während er gleichzeitig seine Königin – mit mehreren Zügen Vorlauf – auf einen Angriff vorbereitete.[4] Alle Schachexperten, die das Match verfolgten, erwarteten, ebenso wie Kasparow selbst, dass der Computer den Köder schlucken würde. Doch irgendwie roch Deep Blue den Braten. Zu Kasparows Überraschung hatte der Computer den Plan des Großmeisters durchschaut, mit einem Zug dessen Königin blockiert und so jede Chance auf einen menschlichen Sieg zunichtegemacht.[5]

Kasparow war sichtlich schockiert. Seine Fehleinschätzung der Leistungsfähigkeit eines Computers war sein Verhängnis gewesen. In einem Interview wenige Tage nach dem Match bemerkte er, Deep Blue habe «plötzlich für einen Augenblick lang wie ein Gott gespielt».[6] Viele Jahre später schrieb er rückblickend, er habe «den Fehler gemacht anzunehmen, dass Züge, die für einen Computer überraschend wären, auch objektiv starke Züge sind».[7] In jedem Fall aber hatte das Genie des Algorithmus triumphiert. Sein Verständnis menschlichen Denkens und menschlicher Schwächen hatte das allzu menschliche Genie attackiert und besiegt.

Kasparow gab das zweite Spiel niedergeschlagen verloren, statt um ein Patt zu kämpfen. Von da an ging es mit seinem Selbstvertrauen bergab. Die Spiele drei, vier und fünf endeten jeweils mit einem Patt. Im sechsten Spiel war Kasparow am Ende. Das Match endete mit Deep Blue 3,5 zu Kasparow 2,5.

Es war eine seltsame Niederlage. Zweifellos wäre Kasparow fähig gewesen, sich aus den Positionen auf dem Brett herauszuarbeiten, aber er hatte die Fähigkeiten des Algorithmus unterschätzt und ließ sich davon einschüchtern. «Deep Blues Spiel hatte mich sehr beeindruckt», schrieb er 2017 über das Match. «Ich machte mir so viele Gedanken darüber, wozu der Computer wohl fähig sein konnte, dass ich gar nicht bemerkte, dass meine Probleme eher daher rührten, dass ich schlecht spielte, als daher, dass er gut spielte.»[8]

In diesem Buch wird immer wieder deutlich werden, dass Erwartungen wichtig sind. Die Geschichte, wie Deep Blue den Großmeister besiegte, zeigt, dass die Macht eines Algorithmus nicht auf das beschränkt ist, was in den Zeilen seines Programmcodes steht. Wenn wir die Kontrolle behalten wollen, müssen wir unsere eigenen Fehler und Schwächen verstehen – ebenso wie jene der Maschine.

Doch wenn schon jemand wie Kasparow das nicht verstanden hat, welche Hoffnung besteht dann für den Rest von uns? Auf diesen Seiten werden wir sehen, wie Algorithmen sich in praktisch jeden Aspekt des modernen Lebens eingeschlichen haben – von Gesundheit und Kriminalität bis zu Verkehr und Politik. Auf dem Weg dahin haben wir es irgendwie geschafft, gleichzeitig verächtlich auf Algorithmen herabzusehen und uns von ihnen einschüchtern zu lassen und ihre Fähigkeiten zu bewundern, mit dem Endergebnis, dass wir keine Ahnung haben, wie viel Macht wir abgeben oder ob wir schon zu viel zugelassen haben.

Zurück zu den Grundlagen

Vor alledem lohnt es sich, zunächst einmal zu fragen, was «Algorithmus» eigentlich bedeutet. Der Begriff wird häufig verwendet, hat aber regelmäßig wenig echten Informationsgehalt. Das liegt teilweise daran, dass das Wort selbst recht vage ist. Offiziell, nämlich im englischsprachigen Wörterbuch Merriam-Webster, wird «Algorithmus» folgendermaßen definiert:[9]

Algorithmus (Substantiv): schrittweises Verfahren, um Probleme zu lösen oder ein Ziel zu erreichen, insbesondere mit einem Computer.

Das ist alles. Ein Algorithmus ist ganz einfach eine Abfolge logischer Anweisungen, die, von Anfang bis Ende, zeigen, wie eine Aufgabe ausgeführt werden soll. Nach dieser breit gefassten Definition zählt auch ein Kuchenrezept als Algorithmus. Und ebenso eine Wegbeschreibung für einen Ortsfremden, der sich verirrt hat. IKEA-Bauanleitungen, YouTube-Videos mit Problemlösungen, sogar Selbsthilfebücher – theoretisch könnte man jede eigenständige Liste mit Anweisungen, wie man ein bestimmtes, definiertes Ziel erreichen kann, als Algorithmus bezeichnen.

Aber so wird der Begriff nicht verwendet. Normalerweise ist mit Algorithmen etwas Spezielles gemeint. Grundsätzlich geht es zwar immer noch um schrittweise Anweisungen, aber diese Algorithmen sind fast immer mathematische Objekte. Sie wandeln eine Folge mathematischer Operationen – mithilfe von Gleichungen, Arithmetik, Algebra, Analysis, Logik und Wahrscheinlichkeiten – in Computercode um. Sie werden mit Daten aus der realen Welt gefüttert, bekommen ein Ziel gesetzt und arbeiten die Rechenschritte ab, bis sie ihr Ziel erreichen. Algorithmen machen aus der Informatik eine echte Wissenschaft und ermöglichten dabei viele der erstaunlichsten modernen Errungenschaften, die Maschinen je erzielt haben.

Es gibt fast unzählig viele verschiedene Algorithmen. Jeder hat eigene Ziele, eigene Eigenheiten, Vor- und Nachteile, eine einheitliche Einteilung gibt es nicht. Aber im Allgemeinen ist es ganz nützlich, wenn man die Aufgaben in der realen Welt, die diese Algorithmen ausführen, in vier Hauptkategorien einteilt:[10]

Priorisierung: Eine geordnete Liste anlegen

Google Search legt eine Rangliste der Suchergebnisse an und sagt so voraus, nach welcher Seite man sucht. Netflix schlägt Filme vor, die man als Nächstes anschauen könnte. Das Navigationsgerät wählt die schnellste Route aus. Sie alle verwenden mathematische Prozesse, um die vielen Möglichkeiten zu sortieren. Deep Blue bestand auch grundsätzlich aus einem Priorisierungsalgorithmus, der alle möglichen Züge auf dem Schachbrett überprüfte und berechnete, welcher Zug die größten Siegchancen brachte.

Klassifizierung: Eine Kategorie auswählen

Sobald ich auf die dreißig zuging, wurde ich auf Facebook mit Werbung für Diamantringe bombardiert. Und nachdem ich verheiratet war, verfolgten mich im Internet Werbeanzeigen für Schwangerschaftstests. Diese kleinen Ärgernisse hatte ich Klassifizierungsalgorithmen zu verdanken. Diese vor allem bei Werbenden beliebten Algorithmen laufen im Hintergrund und klassifizieren Nutzer aufgrund ihrer Merkmale als Interessenten. (Damit liegen sie vielleicht sogar richtig, aber es nervt trotzdem, wenn mitten in einer geschäftlichen Besprechung Werbung für eine Fruchtbarkeitsbehandlung auf dem Laptop erscheint.)

Es gibt Algorithmen, die unangemessene Inhalte auf YouTube automatisch klassifizieren und entfernen, Algorithmen, die Urlaubsfotos beschriften, und Algorithmen, die handschriftliche Notizen einscannen und jedes Zeichen auf einer Seite als einen Buchstaben klassifizieren können.

Kombination: Verbindungen finden

Bei der Kombination geht es darum, Beziehungen zwischen Dingen zu finden und zu kennzeichnen. Im Kern von Dating-Algorithmen wie OkCupid oder Parship steckt ein Kombinationsalgorithmus, der nach Verbindungen zwischen Mitgliedern sucht und aufgrund der Resultate kompatible Partner vorschlägt. Die automatischen Empfehlungen bei Amazon basieren auf einer ähnlichen Grundlage. Dabei werden die Interessen eines Käufers mit denen früherer Käufer verknüpft. Dieses Prinzip führte zu der erstaunlichen Empfehlung, die der Reddit-Nutzer Kerbobotat erhielt, nachdem er eine Baseballkappe bei Amazon gekauft hatte: «Vielleicht gefällt Ihnen auch diese Balaklava?»[11]

Filterung: Das Wichtige eingrenzen

Oft müssen Algorithmen Informationen entfernen, um sich auf das Wesentliche konzentrieren zu können, sprich: um das Signal vom Hintergrundrauschen zu unterscheiden. Manchmal geschieht das ganz wörtlich: Spracherkennungsalgorithmen, wie sie in Siri, Alexa und Cortana ablaufen, müssen erst die Stimme aus den Hintergrundgeräuschen herausfiltern, bevor sie sich daranmachen können zu entziffern, was gesagt wurde. Manchmal geschieht das im übertragenen Sinn: Facebook und Twitter filtern Geschichten heraus, die zu den bekannten Interessen der Nutzer passen, um so einen personalisierten Feed zu erstellen.

Die große Mehrheit der Algorithmen wird darauf ausgerichtet werden, eine Kombination der oben genannten Aufgaben zu erfüllen. Ein Beispiel hierfür ist der uberPOOL-Algorithmus, der nach Fahrgästen sucht, die in dieselbe Richtung fahren wollen. Anhand eines Start- und Zielpunktes wählt der Algorithmus mögliche Routen aus, die zum Ziel führen, sucht nach Verbindungen zu anderen Nutzern, die in dieselbe Richtung wollen, und weist jeden Nutzer einer Gruppe zu – während er gleichzeitig Routen favorisiert, bei denen der Fahrer möglichst selten die Richtung wechseln muss, damit die Fahrt möglichst effizient ist.[12]

Das also machen Algorithmen. Aber wie machen sie, was sie machen? Auch hier sind die Möglichkeiten so gut wie endlos, aber man kann die Sache ein wenig herunterbrechen. Die Ansätze, die Algorithmen verfolgen, lassen sich grob in zwei Hauptparadigmen einteilen, die wir beide noch in diesem Buch kennenlernen werden.

Regelbasierte Algorithmen

Der erste Algorithmentyp ist regelbasiert. Die Anweisungen werden von einem Menschen erstellt, sie sind direkt und eindeutig. Man kann sich das so vorstellen, dass diese Algorithmen der Logik eines Backrezepts folgen. Schritt eins: Tu dies. Schritt zwei: Wenn dies, dann das. Das bedeutet nicht, dass diese Algorithmen simpel sind – mit diesem Paradigma kann man jede Menge sehr leistungsfähige Programme erstellen.

Selbstlernende Algorithmen (Machine-learning-Algorithmen)

Der zweite Typ ist daran angelehnt, wie Lebewesen lernen. Das ist in etwa vergleichbar damit, wie man einem Hund beibringt, die Pfote zu geben. Man braucht dafür keine präzise Liste aus Anweisungen, die man dem Hund dann kommuniziert. Als Hundetrainer muss man ein klares Ziel vor Augen haben, was man dem Hund beibringen will, und eine Belohnung für das Tier, wenn es etwas richtig macht. Man bestärkt ganz einfach gutes Verhalten, ignoriert schlechtes und gibt dem Hund genug Übung, damit er selbst herausfinden kann, was er tun muss. Die algorithmische Entsprechung hierfür nennt man einen selbstlernenden oder Machine-learning-Algorithmus, der unter dem Überbegriff der künstlichen Intelligenz oder KI zusammengefasst wird. Man füttert die Maschine mit Daten und einem Ziel und gibt ihr Rückmeldung, wenn sie auf der richtigen Spur ist – und überlässt es dann ihr, den besten Weg zu diesem Ziel selbst zu finden.

Beide Typen haben ihre Vor- und Nachteile. Regelbasierte Algorithmen sind einfacher zu verstehen, weil die Anleitungen von Menschen geschrieben werden. Theoretisch kann jeder die Anweisungen einsehen und verstehen, auf welcher Logik die Abläufe in der Maschine basieren.[13] Aber dieser Vorteil ist gleichzeitig auch ihr Nachteil. Regelbasierte Algorithmen funktionieren nur bei Problemen, bei denen Menschen wissen, wie sie die Anweisungen schreiben müssen.

Selbstlernende Algorithmen haben sich in jüngster Zeit hingegen als bemerkenswert gut beim Umgang mit Problemen erwiesen, bei denen das Schreiben einer Anweisungsliste keine Lösung darstellt. Sie können Objekte in Bildern erkennen, verstehen gesprochene Worte und übersetzen von einer Sprache in die andere – regelbasierte Algorithmen hatten damit immer Schwierigkeiten. Der Nachteil ist, dass die Lösungswege, die eine Maschine sich selbst sucht, für einen menschlichen Beobachter häufig keinen Sinn mehr ergeben. Das Innenleben kann auch für die besten menschlichen Programmierer ein Mysterium sein.

Ein Beispiel dafür ist die Bilderkennung. Eine japanische Forschergruppe hat kürzlich gezeigt, wie seltsam die Sicht eines Algorithmus auf die Welt für einen Menschen wirken kann. Es gibt eine bekannte optische Illusion, bei der ein Betrachter eines Bildes nicht sagen kann, ob er eine Vase oder zwei Gesichter sieht. (Ein Beispiel hierfür findet sich in den Anmerkungen am Ende des Buches.)[14] Rechts ist ein entsprechendes Bild für Computer abgebildet: Das Forscherteam zeigte, dass bereits ein einzelnes verändertes Pixel am Vorderrad dazu führte, dass ein selbstlernender Algorithmen in dem Foto kein Auto mehr, sondern einen Hund erkannte.[15] Manche Menschen glauben, dass ein Algorithmus, der ohne explizite Anweisungen arbeitet, zwangsläufig in die Katastrophe führen wird. Wie kann man etwas kontrollieren, das man nicht versteht? Was geschieht, wenn empfindungsfähige, superintelligente Maschinen ihre Schöpfer überflügeln? Wie stellen wir sicher, dass eine KI, die wir nicht mehr verstehen und nicht kontrollieren können, sich nicht gegen uns wendet?

Dies alles sind interessante, hypothetische Fragen, und zahllose Bücher beschäftigen sich mit der Bedrohung durch eine KI-Apokalypse. Dieses Buch gehört nicht dazu, und ich entschuldige mich bei allen, die das erwartet haben. Zwar machte die KI in jüngster Zeit große Entwicklungssprünge, aber «intelligent» sind diese Maschinen nur in der engsten Bedeutung des Wortes. Wahrscheinlich wäre es nützlicher, wenn wir die Entwicklungen als eine Revolution der Computerstatistik betrachten würden statt als Revolution der Intelligenz. So klingt es sehr viel weniger sexy, ich weiß (außer man steht wirklich auf Statistik), aber die Beschreibung trifft den Stand der Dinge sehr viel exakter.

Im Moment kann man sich genauso gut Sorgen wegen einer Überbevölkerung auf dem Mars machen wie wegen einer bösen KI.[*1] Vielleicht kommt einmal der Tag, an dem Computer intelligenter sein werden als Menschen, aber dieser Tag ist fern. Tatsächlich sind wir noch weit entfernt davon, auch nur eine Intelligenz auf dem Niveau eines Igels zu erschaffen. Bisher hat es noch niemand über Wurmintelligenz hinaus geschafft.[*2]

Außerdem lenkt der ganze Hype um KI von viel drängenderen Problemen und – meiner Meinung nach – viel interessanteren Geschichten ab. Wenden wir uns daher einen Moment lang von allmächtigen, künstlich intelligenten Maschinen der fernen Zukunft ab und widmen uns Gedanken über das Hier und Jetzt – weil es heute schon Algorithmen gibt, die völlig unbeaufsichtigt autonome Entscheidungen treffen. Sie entscheiden über Haftdauer, Krebsbehandlungen und das Verhalten bei einem Autounfall. Sie treffen heute schon überall lebensverändernde Entscheidungen für uns.

Doch wenn wir ihnen all diese Macht anvertrauen, sollten wir uns fragen, ob sie unser Vertrauen überhaupt verdienen.

Blindes Vertrauen

Sonntag, der 22. März 2009, war kein guter Tag für Robert Jones. Er war zu Besuch bei Freunden gewesen und fuhr nun auf dem Heimweg durch das hübsche Städtchen Todmorden in West Yorkshire, als die Tankwarnung seines BMW aufleuchtete. Der Sprit reichte nur noch 11 Kilometer weit, dann musste er eine Tankstelle gefunden haben. Das würde knapp werden. Zum Glück zeigte sein GPS ihm eine Abkürzung an – über einen gewundenen Weg den Hang hinauf.

Robert folgte den Anweisungen des Apparats, doch die Straße wurde immer steiler und enger. Nach drei, vier Kilometern wurde aus der Straße ein Schotterweg, der kaum gut genug für Pferde war, geschweige denn für ein Auto. Doch Robert ließ sich nicht entmutigen. Er fuhr beruflich fast 8000 Kilometer pro Woche und sah «keinen Grund, der Satellitennavigation von TomTom nicht zu vertrauen».[16]

Kurze Zeit später hätte jeder, der vom Tal unten hinaufblickte, die Nase von Roberts BMW über der Felskante oben auftauchen sehen. Nur ein dünner Holzzaun, in den er gekracht war, hatte Robert davor bewahrt, 30 Meter in die Tiefe zu stürzen.

Am Ende waren ein Traktor und drei Quads nötig, um Roberts Wagen von dort zu bergen, wo er ihn stehen gelassen hatte. Er wurde wegen rücksichtslosen Fahrens angeklagt und gab ein paar Monate später vor Gericht zu, er habe nicht daran gedacht, sich den Anweisungen des Computers zu widersetzen. «Das Navi beharrte immer weiter darauf, dass das die Straße sei», sagte er gegenüber einem Zeitungsjournalisten nach dem Zwischenfall. «Daher habe ich ihm vertraut. Man erwartet nicht, dass das Navi einen fast in einen Abgrund führt.»[17]

Nein, Robert, das haben Sie wahrscheinlich nicht erwartet.

Es gibt eine Moral zu dieser Geschichte. Zwar kam sich Jones wahrscheinlich ein bisschen blöd dabei vor, als er die Informationen vor seinen eigenen Augen (zum Beispiel den Anblick eines steilen Abhangs durchs Autofenster) ignorierte und einem Algorithmus mehr Intelligenz zuschrieb, als er verdiente, aber er befand sich dabei in guter Gesellschaft. Immerhin war Kasparow zwölf Jahre zuvor in dieselbe Falle getappt. Wir alle begehen diesen Fehler, womöglich ohne es zu merken, wenn auch auf unauffälligere und weniger folgenschwere Art.

Im Jahr 2015 untersuchten Wissenschaftler, wie Suchmaschinen, zum Beispiel Google, unsere Weltsicht verändern.[18] Sie wollten herausfinden, ob das Vertrauen, das wir in die Suchergebnisse setzen, gesunde Grenzen hat oder ob wir ihnen gedankenlos über den Rand einer metaphorischen Felskante folgen würden.

Im Zentrum des Experiments stand eine bevorstehende Wahl in Indien. Die Forscher unter der Führung von Robert Epstein rekrutierten 2150 unentschlossene Wähler aus allen Teilen des Landes und ermöglichten ihnen den Zugriff auf eine speziell eingerichtete Suchmaschine namens «Kadoodle», die ihnen dabei helfen sollte, mehr über die Kandidaten zu erfahren, bevor sie ihre Wahlentscheidung trafen.

Kadoodle war manipuliert. Die Teilnehmer waren ohne ihr Wissen in Gruppen eingeteilt worden, bei denen die Suchergebnisse jeweils einen Kandidaten begünstigten. Ging ein Mitglied einer Gruppe auf die Website, dann waren die Links oben auf der Seite alle parteiisch für einen bestimmten Kandidaten. Wollte der Teilnehmer eine Seite sehen, die für irgendeinen anderen Kandidaten warb, musste er sich durch alle Links ganz nach unten scrollen. Unterschiedliche Gruppen wurden in Richtung jeweils anderer Kandidaten geschubst.

Wie erwartet, lasen die Teilnehmer vor allem Websites, die oben auf der ersten Seite auftauchten – laut einem alten Internetwitz ist der beste Platz, um eine Leiche zu verstecken, auf der zweiten Seite von Google-Suchergebnissen. Kaum jemand beachtete die Links, die unten in der Liste standen. Trotzdem war sogar Epstein schockiert, wie stark die Reihenfolge die Meinungen der Teilnehmer beeinflusste. Nachdem sich die Teilnehmer nur wenige Minuten mit den manipulierten Suchergebnissen beschäftigt hatten, antworteten auf die Frage, für wen sie abstimmen würden, ganze 12 Prozent mehr, dass sie den Kandidaten wählen würden, den Kadoodle bevorzugt hatte.

In einem Interview mit der Zeitschrift Science im Jahr 2015[19] erklärte Epstein, was geschehen war: «Wir gehen davon aus, dass Suchmaschinen eine weise Auswahl treffen. Sie sagen sich: ‹Na ja, ich merke, dass die Auswahl nicht ausgewogen ist, und daran erkenne ich … dass die Suchmaschine ihre Arbeit macht.›» Vielleicht noch beunruhigender, wenn man bedenkt, wie viele Informationen wir inzwischen von Algorithmen wie Suchmaschinen bekommen, ist, wie sehr die Leute davon überzeugt waren, dass sie sich ihre eigene Meinung bilden: «Wenn den Menschen nicht bewusst ist, dass sie manipuliert werden, dann glauben sie oft, sie hätten eine neue Denkweise freiwillig angenommen», schrieb Epstein in seinem ursprünglichen Bericht.[20]

Kadoodle ist natürlich nicht der einzige Algorithmus, der verdächtigt wird, die Meinungen der Menschen geschickt zu manipulieren. Ich komme darauf im Kapitel «Daten» noch einmal zurück. Im Moment ist vor allem interessant, dass wir laut diesem Experiment glauben, Algorithmen hätten meistens recht. Am Ende glauben wir, sie hätten immer das bessere Urteilsvermögen.[21] Nach einer Weile fällt uns nicht einmal mehr auf, dass wir ihnen gegenüber voreingenommen sind.

Wir sind umgeben von Algorithmen, die uns eine bequeme Autoritätsquelle bieten. Eine einfache Möglichkeit, um Verantwortung zu delegieren; eine Abkürzung, die wir nehmen, ohne nachzudenken. Wer klickt sich schon bei Google wirklich jedes Mal durch die zweite Seite und betrachtet jedes Suchergebnis kritisch? Oder kontaktiert jede Fluglinie, um zu überprüfen, ob Skyscanner tatsächlich die billigsten Preise auflistet? Oder zieht ein Lineal und eine Straßenkarte heraus, um zu bestätigen, dass GPS die kürzeste Route ausgewählt hat? Ich mache das auf jeden Fall nicht.

Aber hier muss man eine Unterscheidung treffen, weil Vertrauen in einen üblicherweise verlässlichen Algorithmus eine Sache ist. Einem Algorithmus zu vertrauen, dessen Qualität man nicht genau kennt, ist eine völlig andere.

Künstliche Intelligenz trifft auf natürliche Dummheit

Im Jahr 2012 erhielten einige Menschen mit Behinderung in Idaho die Benachrichtigung, dass sie ab sofort weniger Zuschüsse vom staatlichen Gesundheitsprogramm Medicaid bekommen würden.[22] Die Leute hatten zwar alle Anspruch auf Leistungen, doch der Staat kürzte die finanzielle Unterstützung – ohne Vorwarnung – um ganze 30 Prozent,[23] sodass die Kranken Schwierigkeiten hatten, ihre Behandlungskosten zu begleichen. Das war keine politische Entscheidung gewesen, sondern das Ergebnis eines neuen «Budget-Tools», das das Gesundheitsministerium von Idaho neu eingeführt hatte – eine Software, die automatisch berechnete, wie viel Unterstützung jemand erhielt.[24]

Das Problem war, dass die Entscheidungen dieses Tools nicht viel Sinn ergaben. Von außen sah man sofort, dass das Tool im Prinzip willkürliche Zahlen lieferte. Manche Leute bekamen mehr Geld als in den vergangenen Jahren, bei anderen wurde das Budget um mehrere zehntausend Dollar gekürzt, sodass diese Menschen davon bedroht waren, ihr Zuhause verlassen und in ein Pflegeheim ziehen zu müssen.[25]

Die Betroffenen verstanden nicht, warum ihre Leistungen gekürzt wurden, wollten die Kürzung anfechten und baten daher die Bürgerrechtsorganisation American Civil Liberties Union (ACLU) um Hilfe. Dort übernahm Richard Eppink, Chefjurist des ACLU-Regionalverbandes von Idaho,[26] den Fall. Im Jahr 2017 hatte er in einem Blogeintrag Folgendes dazu zu sagen: «Ich ging davon aus, dass man hier dem Staat ganz einfach nur sagen musste: Erklärt uns bitte, warum diese Beträge so stark gesunken sind.»[27] Tatsächlich brauchte es vier Jahre Zeit, 4000 Kläger und eine Sammelklage, um herauszufinden, was geschehen war.[28]

Eppink und sein Team baten zunächst um eine detaillierte Beschreibung, wie der Algorithmus funktionierte, aber das Medicaid-Team weigerte sich, die Berechnungen zu erklären, und behauptete stattdessen, bei der Software, die die Fälle bearbeitete, handele es sich um ein «Betriebsgeheimnis», das nicht offengelegt werden könne.[29] Glücklicherweise sah das der zuständige Richter anders. Das Budget-Tool, das so viel Macht über die Bezugsberechtigten ausübte, wurde daraufhin ausgehändigt, und wie sich herausstellte, handelte es sich nicht etwa um eine hochentwickelte KI oder ein sorgfältig ausgearbeitetes mathematisches Modell, sondern um eine simple Excel-Tabelle.[30]