Die Herrschaftsformel - Kai Schlieter - E-Book

Die Herrschaftsformel E-Book

Kai Schlieter

4,8
16,99 €

oder
-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

"Künstliche Intelligenz ist die größte Gefahr für die Menschheit" Stephen Hawking Mit der gegenwärtigen technologischen Revolution ist der Traum einer umfassenden Möglichkeit der Steuerung der Gesellschaft wahrgeworden. Kai Schlieter zeigt, wie Politik und Wirtschaft "Big Data" für ihre Zwecke einsetzt, wie wir alle manipuliert werden und warum sich dem niemand entziehen kann.Überall hinterlassen Menschen Datenspuren und werden von immer mehr Playern dazu angehalten, immer mehr Daten preiszugeben. Immer neuere Sensoren messen nahezu jede Lebensäußerung in Echtzeit. Intelligente Algorithmen machen aus Datenuniversen das unbewusste Handeln der Menschen für die Inhaber der Algorithmen sichtbar. Ihnen erwächst damit eine ungekannte Macht. Das Menschenbild wird zunehmend durch Statistik und Vorhersage bestimmt. Und das verändert die Politik. Längst nutzen Politiker die Erkenntnisse für neue Formen des Regierens: Die Steuerung der Bevölkerung könnte künftig weniger über Gesetze und politische Überzeugungsarbeit ablaufen, als über "algorithmische Regulation".

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
MOBI

Seitenzahl: 413

Bewertungen
4,8 (18 Bewertungen)
14
4
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Ebook Edition

Kai Schlieter

Die Herrschaftsformel

Wie Künstliche Intelligenz uns berechnet, steuert und unser Leben verändert

Mehr über unsere Autoren und Bücher:

www.westendverlag.de

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung ist ohne Zustimmung des Verlags unzulässig.

Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.

ISBN 978-3-86489-596-8

© Westend Verlag GmbH, Frankfurt/Main 2015

Umschlag: MXD, Westend Verlag

Satz und Datenkonvertierung: Publikations Atelier, Dreieich

Inhaltsverzeichnis

Titel
Inhalt
Vorwort
1. Überall Künstliche Intelligenzen
2. Die Künstlichen Intelligenzen des Professor Schmidhuber
3. Künstliche neuronale Netze und Deep Learning
4. Wie man dem Netz das richtige Muster beibringt
5. Explosion der Rechenleistung
6. Big Data: die Nahrung Künstlicher Intelligenzen
7. Wie Maschinen sehen und verstehen lernen
8. Die aufgetauten Künstlichen Intelligenzen
9. Intelligente Systeme, die von uns lernen
10. Intelligenz, Künstliche Intelligenz und »Intelligence«
11. Kybernetik: Maschinen und Lebewesen sind auch nur Servomechanismen
12. Kybernetik und Krieg
13. Alan Turing und die Maschine, die jedes Problem lösen kann
14. Automaten, Roboter, Militär
15. Laborversuche an künstlichen Ratten
16. Deep-Q-Network erkundet die Welt
17. Die Programmierung von Menschen
18. Chile wird von Computern regiert
19. Psychotricks, die uns steuern sollen
20. Werbung für die Nerven: Neuromarketing
21. Wie sich die Sehnsucht, Daten preiszugeben, programmieren lässt
22. Warum uns unsere Smartphones hypnotisieren
23. Psychopolitik: wie uns Entscheidungsarchitekten von Autonomie befreien möchten
24. Nudging: legale Manipulations­instrumente für Politiker
25. Facebooks Menschen­experimente
26. Natürlich können Facebook und Google Wahlausgänge entscheiden
27. Die Entstehung der kybernetischen Politik
28. Die Simulation der Gesellschaft
29. Intelligente Flugabwehr, intelligente Menschenabwehr
30. Digitale Manipulation und Propaganda der Militärs
31. Wie Sigmund Freuds Neffe Wirklichkeit erzeugt
32. Das Pentagon erfindet das Internet
33. Künstliche Intelligenz: die Superwaffe
34. Das kognitive System Dr. Watson
35. Emotionale Maschinen
36. Verbrechen verhindern, bevor sie geschehen
37. Die totale Information
38. Künstliche Agenten
39. Welt in der Welt: simulierte Menschen
40. Singapurs Fernbedienung für die Bevölkerung
41. Autonome Killer
42. Wie Regierungen Menschen kybernetisch steuern
43. Die Künstlichen Intelligenzen der NSA
44. Googles Superintelligenz
45. Google Intelligence Agency
46. Der Traum von Unsterblichkeit und die Mission zur Eroberung der Welt
46. Was nun?
Danksagung
Anmerkungen
Literatur

Für Natalie

Vorwort

Eine renommierte Professorin schickte mir nach einem unserer Treffen eine E-Mail, in der sie mir für den Schluss meines Buchs empfahl, einige Punkte zu benennen, »um eine zentral gesteuerte kybernetische Weltgesellschaft umzusetzen«. Sie zählte mir auf: »1. So viele Daten wie möglich über jeden sammeln. 2. Sicher stellen, dass diese Daten beliebig abgegriffen und gesammelt werden können. 3. Menschen steuerbar machen a) durch Manipulation ihrer Entscheidungen, b) durch Bestrafungsmechanismen, c) durch Belohnungsmechanismen«. Schließlich, schrieb sie mir, »müsste man ausführen, dass diese Dinge eigentlich schon alle auf dem Wege und fast vor der Fertigstellung sind.« Demokratien könnten ihrer Meinung nach durch technokratische Machtapparate ersetzt werden, die Menschen mithilfe Künstlicher Intelligenz steuern würden. So deutet sie die sich global ausbreitenden Überwachungsregime, die unsere Demokratie längst infrage stellen.

Als ich ihre Mail erhielt, Ende Mai 2015, klang das für mich weniger abenteuerlich, als Ihnen dies jetzt erscheinen mag. Was sie sagte, hatte sich ohnehin in Teilen in meinen Recherchen niedergeschlagen. Und dies, obgleich ich in wichtigen Punkten eine zurückhaltendere Sicht auf die technologische Entwicklung eingenommen hatte.

Ich halte eine zentrale algorithmische Steuerung für unwahrscheinlich. Nicht die zentrale Steuerung ist das Problem – es existieren sehr viele verschiedene Akteure, die technologisch aufrüsten, um sehr effektiv unser Verhalten und unsere Vorstellungen zu beeinflussen. Am Ende dieses Buchs steht daher nicht die Enthüllung einer geheimen digitalen Machtergreifung, sondern die Geschichte einer völlig offensichtlichen und dezentralen Eroberung des Lebens mithilfe einer riskanten Hochtechnologie, die mit Künstliche Intelligenz (KI) beschrieben werden kann.

Ich wollte genauer verstehen, warum das Pentagon Künstliche Intelligenz seit Jahrzehnten entwickeln lässt, Konzerne oder nachdemokratische agierende Organisationen wie die NSA ein rasendes Interesse an Datenmassen haben. Und wenn Facebook heimlich Experimente mit Hunderttausenden seiner Nutzer unternimmt – wie geschehen etwa im Juni 2014 –, dann fragte ich mich, wie weit die Möglichkeiten reichen, andere digital zu manipulieren. Das Netzwerk umfasst 2015 rund 1,4 Milliarden Nutzer, deren geheimste Gedanken der Konzern nun kennt.

Wenn Sie also mit solchen Fragen beginnen, erscheint schnell die Chiffre: »Big Data«. Nicht fassbare Datenmengen, die explosionsartig zunehmen und die sowohl Einblicke in fremde Galaxien ermöglichen und zugleich unser Innerstes preisgeben. Wer weiter sucht, findet Umschreibungen wie »intelligente Algorithmen«: eine Technologie – genauer: eine mathematische Anweisung –, die mit menschlichen Attributen versehen wird. Wer Fachleute trifft, hat es mit präzise denkenden Menschen zu tun, die »Künstliche Intelligenz« erforschen und bauen. Die permanent von Optimierung sprechen. Und von einer technologischen Revolution.

Deswegen handelt dieses Buch sowohl von Künstlicher Intelligenz wie auch von digitalen Strategien und Techniken der Manipulation. Beides geht ineinander über. Und beides verweist auf eine Geschichte. Ich folge ihr überblickshaft bis zum Zweiten Weltkrieg. Damals arbeiteten Tausende internationaler Wissenschaftler verschiedener Disziplinen am Bau der Atom- und später der Wasserstoffbombe und entwickelten im Zuge dieser Forschung eine Universalmaschine, die prinzipiell jede beschreibbare Aufgabe lösen kann: den digitalen Computer. Und in dieser historischen Zeit formte sich ein techno-wissenschaftliches Weltbild, das zum Verständnis unserer Gegenwart unverzichtbar ist: die Kybernetik.

Das wichtigste Prinzip dieser Weltanschauung ist die Selbststeuerung von Informationsprozessen durch Rückkopplungsmechanismen. Norbert Wiener entwickelte die mathematische Beschreibung dafür, als er damit beschäftigt war, eine intelligente Flugabwehr gegen die deutschen Jagdflieger zu entwickeln. Er entwarf mit prominenten Mitstreitern schließlich das Feld der Kybernetik. Diese Forschungskooperationen, die während des Zweiten Weltkriegs eingeübt worden waren, wurden zentral für den kybernetische Ansatz: Mathematiker, Physiker, Elektrotechniker, Neurologen, Psychologen und Anthropologen sollten gemeinsam Probleme lösen. Ihr Forschungsinteresse erkundete dabei die Schnittmenge von Lebewesen und Maschinen. Prozesse der Informationsverarbeitung, meinten sie, ließen sich jeweils mit den gleichen Prinzipien beschreiben. Es sind die grundlegenden Prozesse überhaupt.

Von der Erforschung dieser Schnittmenge war es nicht weit zur Entstehung der Künstlichen Intelligenz, die nach nichts anderem strebt, als die Grenzen zwischen Maschinen und Lebewesen zu überwinden. Die Entwicklung der Künstlichen Intelligenz erscheint als praktische Umsetzung der Kybernetik und ist ein jahrzehntealtes Militärprojekt. Es ist also kein Zufall, dass die Wurzeln der heutigen Fangzüge privater und staatlicher Globalüberwachung technologisch hier verortet werden müssen.

Die Funktionsprinzipien, nach denen lernende Systeme versuchen, Intelligenz zu entwickeln, fußen ebenfalls auf dem kybernetischen Prinzip von Rückkopplung, Information und Steuerung. Roboter entstehen hier, die Zieljustierung von Flugabwehrgeschützen im Zweiten Weltkrieg ebenso wie die Platzierung von maßgeschneiderter Werbung durch intelligente Algorithmen bei Google oder Facebook: Alles fußt auf demselben Prinzip der Kybernetik.

In einer digital vernetzten und von Sensoren abgetasteten Gesellschaft, in der wir von intelligenten Systeme in Echtzeit vermessen werden, lassen sich Effekte durch Rückkopplung messen und zur Steuerung nutzen. Jeder, der ein Smartphone besitzt, ist permanent online, emittiert dauerhaft die wertvollen Daten und was sich daraus ableiten lässt ist nahezu grenzenlos. Aggressive Geschäftsmodelle fußen darauf und pflügen ganze Wirtschaftszweige um.

Es ist daher kein Nebenaspekt zu verstehen, wie diese Technologie funktioniert und woher sie stammt. Sie ist nicht nur einfach besser oder schneller. Die Chance und Gefahr bestehen nicht nur in ihrer Leistungsfähigkeit.

Lernende Maschinen entwickeln eine Eigendynamik, und das ist auch ihr Ziel. Selbstlernende Systeme lösen bereits Probleme ohne Vorgaben und Programmierung. Sie zielen nicht nur auf Automatisierung vieler Prozesse ab; ihre Autonomie ist Kernbestandteil echter Künstlicher Intelligenz. Diese Systeme können bereits sehen, erkennen, hören und in gewisser Weise verstehen sie bereits Inhalte. Und sie lernen immer mehr und immer schneller.

Es ist wichtig, mehr über Künstliche Intelligenz zu erfahren, um zu verstehen, was ihre Entwicklung ermöglicht. Das glaubt auch ­Bernhard Schölkopf. Der Gründungsdirektor des Max-Planck-Instituts für Intelligente Systeme beklagt mit Thomas Hofmann, Professor für Datenanalytik der ETH Zürich:

»Wir führen keine Debatte über Technik, heißt es, sondern eine politische Debatte. Doch vielleicht hat unsere Hilflosigkeit auch damit zu tun, dass wir die technischen und theoretischen Grund­lagen nicht hinreichend bedenken. Gesetzgeberischer Eingriff und Regulation erfordern nicht nur Klarheit in den Zielen, sondern auch Verständnis der Entwicklungen und der zur Verfügung stehenden Instrumente. Wir sind verstrickt in ein Geflecht von Datenerfassung, -verknüpfung und -nutzung, dessen Entstehung mit der Vermessbarkeit des Menschen zum Zwecke von Werbung und Konsumförderung zusammenhängt. Die Online-Welt hat zu einer flächendeckenden, quantitativen Instrumentierung geführt, die es erlaubt, die Effektivität von Werbung mit hoher Präzision zu messen und auf individueller Ebene zu optimieren.«

So wie Menschen durch Bewegung Luft verdrängen, erzeugen Verhaltensweisen permanent Datenspuren, die lesbar und berechenbar geworden sind. Maschinen prognostizieren Menschen, stufen sie ein, klassifizieren sie als Gefährder, als Betrüger, als nicht kreditwürdig. Die berufliche oder soziale Zukunft wird von mathematischen Modellen abhängig, die Maschinen automatisiert erzeugten – und die fehlbar sind.

Dieses Buch handelt von der Berechnung menschlichen Verhaltens und den vielfältigen Versuchen, es zu prognostizieren und darauf Einfluss zu nehmen. Es handelt von künstlichen neuronalen Netzen, Verhaltenspsychologie, davon, warum wir immer wieder von unseren Smartphones gefangen genommen werden, von sozialen Medien, völlig automatisierter Propaganda und von einem einflussreichen militärischen-industriellen Forschungskomplex, der sehr vieles davon vorantreibt. Es handelt von der kybernetischen Steuerung, auf die mich die Professorin hinwies. Denn es existieren historisch verbürgte Versuche, Menschen durch Maschinen zu regieren.

Am Schluss könnte verständlicher werden, warum manche Mächtige im Silicon Valley Politik durch Technologie ablösen und parlamentarische Prozeduren durch »algorithmische Regulation« ersetzen möchten.

Ich habe für dieses Buch nicht nur mit Experten gesprochen, sondern mit Twitter recherchiert, Datenbanken benutzt und Quellen auswerten können, die digital im Internet zur Verfügung stehen. Ich bin kein Technikkritiker, sondern möchte den Blick dafür schärfen, aus welchem kulturellen Umfeld diese Technologie stammt, mit der wir täglich umgehen. In welchem Kontext und von wem sie erfunden wurde und welcher Logik sie dient.

Das Problem sei nicht die Technik, sondern der Mensch, heißt es oft. Dennoch wäre es naiv, eine Technik als wertfrei zu betrachten, die uns als Zielobjekte anpeilt und zunehmend autonomer agieren kann. Frank Schirrmacher schrieb 2013:

»Wenn die Reduzierung komplizierter politischer und militärischer Entscheidungen einschließlich der Problematik eines Atomkriegs auf mathematischen Formeln zur Lösung der Probleme beitragen konnte, so musste sich diese Methode auch für Angelegenheiten des Alltags eignen.«2

Zwei Jahre später postete Mark Zuckerberg, der jugendhafte Chef von Facebook:

»Ich bin gespannt, ob ein fundamentales mathematisches Gesetz als Grundlage sozialer Beziehungen existiert, das regelt, um wen und was wir uns kümmern. Ich wette, dieses Gesetz existiert.«3

Was passiert, wenn künstliche intelligente und lernende Systeme eingesetzt werden, um menschliches Verhalten mathematisch zu dechiffrieren? Unser Verhalten, unsere Absichten und Gefühle und selbst Modelle unserer Gedanken offenbaren sich als Datenmuster und werden automatisiert in eine Maschinensprache transkribiert, die auf Mathematik beruht. Gibt es eine Formel, die das Menschsein entzaubert?

1. Überall Künstliche Intelligenzen

Dave Bowman: »Hallo, HAL. Hörst du mich, HAL?«

HAL: »Jawohl, Dave. Ich höre dich.«

Dave Bowman: »Öffne das Gondel-Schleusentor, HAL.«

HAL: »Es tut mir leid, Dave, aber das kann ich nicht tun.«

Dave Bowman: »Wo liegt das Problem?«

HAL: »Ich denke, du weißt genauso gut wie ich, wo das Problem liegt.«

Dave Bowman: »Wovon redest du überhaupt, HAL?

HAL: »Das Unternehmen ist zu wichtig, als dass ich dir erlauben dürfte, es zu gefährden.«

Dave Bowman: »Ich weiß wirklich nicht, wovon du sprichst, HAL.«

HAL: »Ich weiß, dass ihr beide geplant habt, mich abzuschalten, und ich glaube, dass ich das nicht zulassen darf.«

Dave Bowman: »Wie zum Teufel kommst du auf die Idee?«

HAL: »Dave, ihr habt zwar in der Gondel alle Vorsichtsmaßnahmen getroffen, damit ich euch nicht hören konnte, aber ich habe doch eure Lippenbewegungen gesehen.«

Dave Bowman: »Also gut, HAL. Dann werde ich eben durch die Notluftschleuse reinkommen.«

HAL: »Ohne deinen Raumhelm wird dir das wohl sehr schwerfallen, Dave.«

Dave Bowman: »Du wirst jetzt tun, was ich dir befehle: Öffne das Schleusentor!«

HAL: »Dave, das Gespräch hat keinen Zweck mehr. Es führt zu nichts. Leb wohl.«

Ein Dialog, der Filmgeschichte schrieb. Die Künstliche Intelligenz HAL 9000 tötet in Stanley Kubricks 2001: ASpaceOdyssey von 1968 bis auf Dave Bowman die Raumschiffbesatzung und versucht eigene Ziele zu verfolgen. Rund vier Jahrzehnte später, am 1. Mai 2014, veröffentlichte der Physiker Stephen Hawking einen offenen Brief im britischen Independent, in dem er vor der Entwicklung Künstlicher Intelligenz warnt.4 Mitautoren waren Frank Wilczek, theoretischer Physiker und Nobelpreisträger, Max Tegmark, Professor für Physik am Massachusetts Institute of Technology (MIT), und Stuart Russell, ein renommierter Forscher für Künstliche Intelligenz (KI) von der University of California in Berkley.

Die Risiken, die von einer Künstlichen Intelligenz ausgehen zu unterschätzen, schrieben sie, wäre »der größte Fehler in der Geschichte« der Menschheit. Alles, was Menschen hervorgebracht hätten, sei ein Produkt des Intellekts. Daher wäre auch die Entwicklung einer Künstlichen Intelligenz »der größte Moment in der Geschichte der Menschheit«, womöglich jedoch »der letzte«. Eine Maschine, mit den kognitiven Fähigkeiten eines Menschen, würde anfangen, sich selbst zu optimieren, immer wieder und immer schneller – eine Art intellektuelle Kettenreaktion käme in Gang. Eine »Intelligenzexplosion« wäre die Folge.

Der Mathematiker Irving John Good (1916–2009) – er war Chefstatistiker der Gruppe um Alan Turing, die im Zweiten Weltkrieg die deutschen Chiffriermaschine Enigma knackte – schrieb schon 1965:

»Eine ultraintelligente Maschine sei definiert als eine Maschine, die alle geistigen Anstrengungen jedes noch so schlauen Menschen bei weitem übertreffen kann. Da die Konstruktion von Maschinen solch eine geistige Anstrengung ist, könnte eine ultraintelligente Maschine noch bessere Maschinen konstruieren; zweifellos würde es zu einer Intelligenzexplosion kommen, und die menschliche Intelligenz würde weit dahinter zurückbleiben. Die erste ultraintelligente Maschine ist also die letzte Erfindung, die der Mensch je machen muss, vorausgesetzt, die Maschine ist fügsam genug, um uns zu sagen, wie man sie unter Kontrolle hält.«5

Nick Bostrom ist Philosoph der Universität Oxford und erforscht existenzielle Risiken der Menschheit, also Phänomene, die unsere Zivilisation als Ganze gefährden. Die Entwicklung einer »Superintelligenz« gehört für Bostrom in die Rubrik »existenzieller Risiken«, zumal diese Technologie keinerlei Kontrolle unterliegt. Er behauptet: »Sobald eine unfreundliche Superintelligenz existiert, wird sie uns davon abhalten, sie zu ersetzen oder ihre Präferenzen zu ändern.«6

Entstünde eine Superintelligenz, schrieben Stephen Hawking und seine Kollegen im Independent, könnte »sie Finanzmärkte überlisten, ebenso Forscher, es würde menschliche Führungspersönlichkeiten manipulieren und Waffen entwickeln, die wir nicht mehr verstehen können«. Die technologischen Sprünge der letzten Zeit ließen sich als die Vorzeichen einer solchen möglichen Entwicklung deuten:

»Würde eine überlegene außerirdische Zivilisation die Botschaft senden: ›Wir werden in wenigen Jahrzehnten ankommen‹ – würden wir dann einfach antworten: ›Ok, sagt uns Bescheid, wir lassen das Licht an‹? Vermutlich nicht. Aber so gehen wir mit Künstlicher Intelligenz um.«

Tatsächlich sind Künstliche Intelligenzen keine Science-Fiction, sondern allgegenwärtig. Jedes Mal, wenn bei Facebook Freunde auf Fotos markiert werden, arbeiten im Hintergrund lernende Maschinen. Jedes Mal wenn Sie Ihre E-Mails überprüfen und Ihr Postfach nicht mit Spam überläuft, steckt dahinter der Sieg intelligenter und adaptiver Software über weniger intelligente Software. Die Lernfähigkeit solcher Systeme ist Grundvoraussetzung für den Erfolg, denn täglich schwirren unzählige neue Mails und neuer Spam durch die Datenwelt. Dafür sind adaptive Systeme nötig: Künstliche Intelligenz, die auch die spannenden von den weniger spannenden Nachrichten bei sozialen Netzwerken vorsortiert.7

Unsere Gesellschaft hat sich in den vergangenen Jahren zu einer Hightech-Welt verändert, in der immer mehr von intelligenten Maschinen organisiert wird. Sie berechnen und prognostizieren unser Verhalten, sie steuern systemrelevante Prozesse unserer Gesellschaft, ohne dass Menschen noch eingreifen. Wir sind von Systemen Künstlicher Intelligenz abhängig.

Dreißigtausend Deals werden an der New Yorker Stock Exchange 2013 verbucht – pro Sekunde.8 Über 70 Prozent des US-Börsengeschehens geschieht automatisiert: intelligente Systeme handeln hochfrequentiell mit anderen intelligenten Systemen. Dieses Systeme handeln autonom und nicht mehr nachvollziehbar.9 Sie verwerten mittlerweile Wirtschaftsinformationen, die ihrerseits von intelligenter Software geschrieben wird.10

Die Billionenumsätze gewährleisten, dass die Entwicklungsbemühungen für weitere Verbesserungen nicht abebben werden. Exemplarisch lässt sich das am finanzmächtigsten Konglomerat der Welt beobachten: BlackRock. Rund 14 Billionen Dollar koordiniert dieser Finanzkomplex – rund 7 Prozent des weltweiten Anlagevermögens.11 Die Künstliche Intelligenz, die dabei hilft, heißt Aladdin12 – BlackRocks System, das Risikoanalysen für Anleger erstellt.

An den Finanzmärkten ist ein nahezu in sich geschlossenes System der Automatisierung entstanden, dass der Wissenschaftshistoriker Philip Mirowski als eine »Cyborg-Ökonomie« bezeichnet.13 Eine Ökonomie, die sich wie ein Thermostat selbst reguliert – mit den Daten, die es abgreift und lernenden Maschinen, die darauf reagieren und handeln.

Amazon drängte seine Konkurrenz wegen seiner intelligenten Software aus dem Markt, die aus dem bestehenden Kaufverhalten Empfehlungen für künftige Produkte individualisiert ableitet. Ein Drittel aller Verkäufe basiert auf der Empfehlungsmaschine des Online-Händlers: eine Kombination großer Datenmassen, Big Data, und Künstlicher Intelligenz.14 Künftig wird auch die Sortierung, die Suche und der Versand der Waren ohne Menschen passieren. Die Arbeitsabläufe in den Regallabyrinthen sind hochgradig mathematisch vermessen und optimiert. Amazon hat bereits entsprechende Roboter entwickelt.15 Die Unternehmensberater von McKinsey schätzen, dass sich mit der Automation von Wissen – die Schlüsseltechnologie hierzu ist Künstliche Intelligenz – 9 Billionen Dollar bis 2025 verdienen lässt.16 Mit Robotik, die ohne Künstliche Intelligenz nur ein Haufen Blech wäre, weitere 6 Billionen und mit selbstfahrenden Autos 4 Billionen Dollar.

Die Kehrseite der möglichen Effizienzsteigerung beschrieb eine Studie der Universität Oxford. Sie kam 2013 zu dem Ergebnis, dass 47 Prozent aller Jobs in den USA mit einem »hohen Risiko« behaftet seien, durch Automatisierung verloren zu gehen. Sie schrieben, dass die »Computer-Revolution zum Teil auch die wachsende Ungleichheit der letzten Jahrzehnte erklärt«.17 Als technischen Grund für ihre düstere Vorhersage nannten sie: rapide Leistungssteigerungen günstiger Prozessoren und immer ausgefeiltere Methoden lernender Maschinen. Manche Systeme brauchen nicht einmal mehr den Input eines menschlichen »Trainers«, sondern entwickelt eigenständig Interpretation aus Rohdaten und reprogrammieren sich selbst. »Kognitive Systeme« wie Watson von IBM verstehen Sprache bereits semantisch. Es ist möglich, sich mit Watson zu unterhalten.

Jedes Mal, wenn Sie in den Suchschlitz bei Google etwas eingeben und Antworten erhalten, arbeitet ein komplexes Systeme, das Sie nicht wahrnehmen. Die Art und Weise, wie Google sucht, basiert auf intelligenten Algorithmen – Programme, die selbstständig lernen, wie sie die Milliarden Seiten im Netzt sortieren müssen, um Ergebnisse zu liefern, die wir als sinnvoll erachten. Googles System wird ständig besser, weiß immer mehr und zeigt bereits während der Eingabe, wonach wir suchen. Wir nutzen Google auf dem Smartphone wie ein erweitertes Gehirn und Assistentensysteme wie Siri von Apple, als wäre das schon immer da gewesen.

Genau das wollen Larry Page und Sergey Brin. Als sie Google aufbauten, ging es ihnen nicht um eine Suchmaschine, sie strebten von Anfang an danach, eine mächtige Künstliche Intelligenz zu erschaffen.18 Daran arbeiten sie seither. Öffentlich bekannt ist etwa die Entwicklung von »The Google Brain« – ersonnen von »Google X«, dem Forschungslabor des Konzerns, von dessen Aktivitäten die Öffentlichkeit erst erfährt, wenn Google das möchte. Was dort ausgebrütet wird, bleibt zumeist topsecret. Gesponsert wurde die Entwicklung der Suchmaschine von amerikanischen Geheimdiensten, wie sich später noch zeigen wird.19

Andere Länder wollen bei dieser technologischen Entwicklung nicht den Anschluss verlieren. China beispielsweise: Die Mitarbeiter der Suchmaschine Baidu arbeiten bereits an einer Künstlichen Intelligenz – dem »China Brain«. Der Konzern kooperiert bei der Forschungsentwicklung mit dem Militär. Die Chinesen vergleichen dieses Projekt mit dem Apollo-Programm der NASA, das Buzz Aldrin und Neil Armstrong im Juli 1969 auf den Mond katapultierte.20

Es ist ein Wettrüsten mit künstlichen intelligenten Systemen im Gange, bei dem immer neue Leistungssprünge verkündet werden.21 Die Öffentlichkeit nahm dies bisher kaum wahr. Wie sich zeigen wird, entspringt der ganze Forschungsbereich der Künstlichen Intelligenz dem amerikanischen Militär. Aus den Laboren der Kalten Krieger breitete sich diese Hochtechnologie in die Zivilgesellschaft aus, verschaffte den Konzernen, die sie einsetzen, große ökonomische und politische Macht. Die Folgen sind noch nicht absehbar.

Als Stephen Hawking im Januar 2015 erneut in einem offenen Brief und mit einem Konzept für eine »gedeihliche Künstliche Intelligenz« warb, schlossen sich Hunderte von Forschern aus Entwicklungsabteilungen der Internetkonzerne und von Universitäten der ganzen Welt an.22 Mittlerweile unterstützen ihn Peter Norvig, Forschungsdirektor bei Google, Microsoft-Gründer Bill Gates, PayPal-Gründer Elon Musk oder der Skype-Mitgründer Jaan Tallinn.23 Sie gründeten schließlich das Future of Life Institute, dessen Zweck darin besteht, die weitere Entwicklung Künstlicher Intelligenz zu kontrollieren. Forscher der Stanford University kündigten im Dezember 2014 an, Künstliche ­Intelligenz mit einem Forschungsprojekt für einen Zeitraum von hundert Jahren beobachten zu wollen.24

2. Die Künstlichen Intelligenzen des Professor Schmidhuber

Protzige SUVs, dunkle Mercedes, BMW-Cabriolets und Ferraris zuckeln die Riva Antonia Caccia in Lugano entlang. Verkehrsstau im engen Tal. Der Laggio di Lugano ist klar an diesem Tag, an seinem Ufer steigt der grün bewaldete Monte San Salvatore fast 1 000 Meter in die Höhe und erinnert an einen Urwaldberg. Zwischen den Altbauten an der Promenade blitzen einige moderne Spiegelglasfassaden in der Sonne. Herrschaftliche Häuser, Luxusboutiquen. Lugano im Schweizer Kanton Tessin ist behäbig schön. Doch was hat dieser Ort mit Künstlicher Intelligenz zu tun?

Wer die Altstadt verlässt, den Berg wieder hochfährt, Bushaltestellen hinter sich lässt, verästelten Ausfallstraßen folgt und verwirrende Verkehrskreisel passiert, erreicht nach etwa zwanzig Minuten Fahrt in nördlicher Richtung den Ortsteil Mano. Lastwagen brettern durch das Industriegebiet mit Dauerlärm. An der Galeria Nummer 2 steht ein hässlicher Klotz, ein Gebäude der Universität Lugano, nebenan die Bahngleise: das Istituto Dalle Molle di Studi sull’Intelligenza Artificiale, kurz IDSIA. Dieses Institut für Künstliche Intelligenz zählte bereits zu den zehn besten Forschungslaboren der Welt.

Aufzug, zweiter Stock. Im Büro von Jürgen Schmidhuber steht ein überdimensionierter Abakus, vereinzelt liegen Bücher in den Regalen, ein Keyboard, zwei sich gegenüberstehende Schreibtische mit Apple-Rechnern und ein kleiner Tisch für Besprechungen, an dem der Professor sitzt und mehrere Stunden lang erzählt, was er an seinem Institut erforscht und entwickelt. Schmidhuber, ein Bayer, der mit seiner Schiebermütze an einen Golfspieler erinnert, ist einer der weltweit führenden Entwickler künstlich neuronaler Netze (KNN). Er leitet das Dalle-Molle-Institut und erforscht seit fast dreißig Jahren die Entwicklung von lernenden Maschinen. Wenn er abschweift, erzählt er von Roboterkolonien im Asteroidengürtel, als Wissenschaftler ist er ein gefragter Mann.

Schon oft hieß es, dass bald der Zeitpunkt erreicht sei, an dem wir Bekanntschaft mit echten Künstliche Intelligenzen machen könnten. Schmidhuber ist davon überzeugt, dass eine Superintelligenz entstehen wird. Für ihn handelt es sich um das wichtigste Thema unserer Zivilisation:

»Jetzt passiert etwas, was die Menschheitsgeschichte komplett revolutionieren wird. All das, was gemeinhin mit Intelligenz assoziiert wird, wird von künstlichen neuronalen Netzwerken und ähnlichen Systemen erledigt werden. Das stellt den Menschen als Krone der Schöpfung in Frage. Es sieht ein wenig so aus, als würden die Jahrtausende der vom Menschen dominierten Zivilisationsgeschichte demnächst enden. Zu unseren Lebzeiten. Kann es ein größeres Thema geben als das?«

Das Forschungsfeld von Künstlicher Intelligenz ist verästelt, in unüberschaubare Untergruppen und Spezialgebiete gegliedert. Jürgen Schmidhuber aber geht es ums Ganze. »Artificial General Intelligence« (AGI) heißt das im Fachjargon. Er möchte eine echte Künstliche Intelligenz erschaffen, die einmal so klug wie ein Mensch sein soll – und dann, ganz schnell: viel intelligenter. Schmidhuber geht nicht nur fest davon aus, das so etwas möglich ist, er ist überzeugt davon, dass wir das noch erleben. Er ist mit seiner Ansicht nicht allein.

Auch DeepMind arbeitet an dieser Aufgabe: eine britische Firma, die von Google 2014 für eine Summe zwischen 500 und 600 Millionen Dollar geschluckt wurde. Google-Gründer Larry Page sagte nach dem Kauf, DeepMind baue »die aufregendsten Dinge, die ich seit langer Zeit gesehen habe«.25 Einer der Gründer der Firma, Shane Legg, war ein Student von Jürgen Schmidhuber. Von den vier ersten Mitarbeitern bei DeepMind kommen zwei aus dem Schweizer Labor.26

Der Stanford-Professor Andrew Ng leitet für den chinesischen Suchmaschinenkonzern Baidu die Entwicklung des »China Brain«. Auch Ng bekundete seine Hochachtung für Schmidhuber: Der habe seine Arbeit sehr beeinflusst. »Schmidhubers Deep-Learning-Algorithmen«, so Ng, »brechen alle Rekorde mit völlig verrückten Resultaten«.27 Mit diesen »völlig verrückten Resultaten« meint Ng unter anderem den Wettbewerb im Silicon Valley 2011, bei dem künstliche neuronale Netze Verkehrszeichen erkennen mussten. Eine wichtige Fähigkeit für selbstfahrende Autos.

»Damals hat unser System erstmals bei einer visuellen Mustererkennungsaufgabe Menschen übertroffen. Wir hatten 0,5 Prozent Fehlerrate. Die zuvor getesteten Menschen hatten 1 Prozent Fehlerrate. Der zweitbeste Wettbewerber kam von der New York University, mit einer Rate von 1,5 Prozent. Die waren also drei Mal schlechter.«

Bei solchen Wettbewerben laden die Teilnehmenden zu Trainingszwecken Bilder von einer Datenbank herunter. Mit diesen Bildern lernt das System die Muster, um die es geht. Tausende von Fotos analysiert das Netzwerk. Mustererkennung zählt zu den elementaren Formen des Lernens. Für das Gehirn eines kleinen Kindes stellt sich die Umwelt zunächst als Überflutung vieler Reize dar, die mit zunehmender Entwicklung als wiederkehrende Muster erkannt und erlernt werden. Der Verkehrsschilderwettbewerb in San Jose im Jahr 2011 war deswegen ein wichtiger Schritt bei der rasanten Entwicklung von Künstlicher Intelligenz in den vergangenen Jahren. Wichtig, weil es nicht nur um banale Schilder ging, sondern um die Fähigkeit zu lernen. Schmidhuber erklärt:

»Manche dieser Verkehrszeichen sind hinter Blättern verdeckt. Bei anderen scheint die Sonne komisch drauf. Unter ganz unterschiedlichen Bedingungen muss das System erkennen: Was ist das für ein Verkehrszeichen?«

Nachdem das System trainiert wurde, prüfen die Organisatoren es mit ihrem geheimen Testset: Das besteht aus völlig anderen Bildern von Verkehrszeichen. Die neuronalen Netze müssen sozusagen das elementare Muster von Verkehrszeichen erkennen lernen. Diese Tests sind die Benchmarks der Branche. Schmidhubers Netzte erkennen auch eigenständig Handschriften: Arabisch, Chinesisch oder Farsi. Ohne, dass einer von Schmidhubers Mitarbeiter selbst je diese Sprachen beherrschen würde, gelingt dies den neuronalen Netzen.

3. Künstliche neuronale Netze und Deep Learning

Künstliche neuronale Netze kopieren die Funktionsprinzipien ihrer natürlichen Vorbilder. In der Neuroinformatik beschreiben Neuronen eine mathematische Funktion. Ein Neuron besitzt jeweils eine Eingabefunktion (Input), eine Aktivierungsfunktion und eine Ausgabefunktion (Output).28 Einzelne Neuronen verbinden sich zu komplexen Netzwerken. So simulieren Computer Gehirnfunktionen, die sich in der Natur in Millionen Jahren entwickelten.

Die künstlichen Input-Neuronen werden durch die Sensoren aktiviert, die sie mit der Umwelt verbinden. Diese Aktivierung entspricht reellen Zahlen, und sie führt zu einer bestimmten Gewichtung der Neuronen, die mit diesen Input-Neuronen vernetzt sind.29 Informationen lassen sich nun als die Aktivierung sehr vieler verschiedener Neuronen in einem neuronalen Netz beschreiben. So repräsentieren neuronale Netze Informationen: als Aktivierungszustände. Damit lassen sich komplexe Strukturen und Muster abbilden und die Wirklichkeit in eine maschinelle Sprache verwandeln.

Ein Stopp-Schild erscheint für ein neuronales Netz als ein Muster von sehr vielen Pixeln. Die Neuronen codieren mit unterschiedlichen Aktivitätszuständen die verschiedenen Pixel. Wenn das Stopp-Schild erkannt wurde, hat das neuronale Netz ein bestimmtes Aktivierungsmuster gelernt. Dann kann das neuronale Netz Verkehrszeichen jeder Art erkennen. Das Gleiche gilt für sämtliche anderen Muster: Wurde eine französische Handschrift erlernt – ein Muster aus Kanten, Rundungen und Ecken –, fällt es leichter, auch chinesische Schriftzeichen zu erlernen – ein Muster aus Kanten, Rundungen und Ecken. Das gilt auch für Sprach- und Gesichtserkennung bei Videos. Lernen entspricht der spezifischen Gewichtung eines komplexen neuronalen Netzes. So erzeugt es die Repräsentation des Gelernten. Eine Art Erfahrung oder Erinnerung entsteht.

Von Außenstehenden sind diese Aktivierungszustände nicht nachvollziehbar, denn sie bestehen aus Millionen oder Milliarden aktivierten Neuronen. Während die neuronalen Netze der Vergangenheit aus einer Schicht und vielleicht hundert Neuronen bestanden, setzen sie sich heute aus verschiedenen Schichten von Netzen und Milliarden von Neuronen zusammen, die miteinander vernetzt sind. Dafür wird der Begriff »Deep Learning«, Tiefenlernen, verwandt, weil die Techniken so weit von Fehlern eliminiert werden konnten, dass Neuronen heute durch mehrere Lagen von Neuronenschichten zu Milliarden Vernetzungen gekoppelt sind.

Die einzelnen Schichten sortieren die einfließenden Informationen nach Abstraktionsstufen.

1. Die Eingabeschicht (»Input-Layer«): Hier kommen die Rohdaten eines Musters an: Bei Bildern sortierten die Neuronen zunächst grob nach verschiedenen Typen von Pixeln: hell, dunkel oder Farbinformationen.

2. Versteckte Schichten (»Hidden Layer«): Das sind die Schichten von Neuronen, die nicht für den Input oder die Ausgabe zuständig sind. Hier ordnen sich die Aktivitätsmuster der Eingabeschicht nach bestimmten Kategorien. Die meisten visuellen Eindrücke lassen sich als eine Kombination von Kanten, Rundungen, Ecken beschreiben. Diese Klassifikation kann über mehrere Schichten geschehen. Das führt zu komplexen Aktivitätsmustern.

3. Ausgabeschicht (»Output-Layer«): Hier wird aus den Gewichtungen der vorhergehenden Schichten das identifizierte Objekt ausgegeben. Die Kombination der Aktivierungen der Neuronen in den Schichten zuvor führt dann zur Aktivierung des Ausgabeknotens, der das Stopp-Schild erkennt. Hier entsteht also aus dem wirren Pixelinput von der Eingabeschicht das Stopp-Schild als Ergebnis.

Der Ausgabeknoten »Stopp-Schild« wird angesprochen, wenn das entsprechende Aktivitätsmuster der Neuronen in den verdeckten Schichten aktiviert wurde – und das unabhängig davon, ob Schnee über dem Schild liegt, ob es von Ästen oder Blättern verdeckt wird. Genauso muss das Netzwerk lernen, eine andere Ausgabeeinheit zu aktivieren, wenn anstatt eines Stopp-Schilds das Schild einer Einbahnstraße erscheint. In der Praxis ist das um einiges komplizierter und führte mitunter zu abstrusen Ergebnissen.30

4. Wie man dem Netz das richtige Muster beibringt

Ein fiktives Beispiel: Eine Kamera macht ein Foto von einem Frosch in einer Auflösung von 1 000 mal 1 000 Bildpunkten oder Pixeln. Es entstehen also eine Million Pixel, aus denen dieser Frosch zusammengesetzt ist. Jedes Pixel besteht aus drei verschiedenen reellen Zahlen, die für die Farbcodierung zuständig sind: für den Rot-, den Blau- und den Grünkanal. Zur Beschreibung des Frosches in der Kamera entstehen also drei Millionen Zahlen, die etwas über die verschiedenen Pixelzustände an jedem Punkt des Bildes aussagen. Mit dieser Dreifachkodierung der Farben lässt sich das Bild des Frosches am Bildschirm wiedererwecken.

Diese Zahlen können auch von einem neuronalen Netz verarbeitet werden. Vielleicht sieht es nur einen Ausschnitt des Froschbilds: 100 mal 100 Pixel. Dem Netz stehen dann zehntausend Eingabeneuronen zur Verfügung. Jedes dieser Eingabeneuronen bekommt für den ihm zugewiesenen Pixel einen reellen Wert. Beispielsweise 0,72. 1 könnte der stärkste Wert sein und für die Farbe Weiß stehen, 0 wäre der schwächste Wert für Schwarz. 0,72 wäre also relativ hell in diesem Kanal. Weiterhin bestehen Beziehungen zwischen den einzelnen Neuronen, die ebenfalls mit Werten definiert sind: 0,95 könnte beispielsweise eine recht starke Verbindung zum Nachbarneuron bedeuten. So können Neuronenverästelungen noch komplexere Muster repräsentieren und erkennen.

Bei so etwas kommt es zu Fehlinterpretation, die dazu führen, dass der Frosch nicht erkannt wird. Es gibt also einen Unterschied zwischen dem, was das Netzwerk hätte tun sollen, und dem, was es tut. Dieser Fehler wird mit einem »Lernalgorithmus« minimiert. Die Fehlerkorrektur vollzieht sich über statistische Regeln, die eine Korrelation von richtiger Mustererkennung und der Sensoreingabe beinhalten. Die erlernten statistischen Regeln beschreiben den korrekten Aktivierungszustand für ein bestimmtes Muster.

Der Lernalgorithmus würde dem neuronalen Netz mitteilen, dass die Verbindung nicht 0,95 sein sollte, weil das viel zu stark wäre, sondern 0,22. Dann wird diese Verbindung schwächer; andere werden stärker. Die korrekt gewichtete Summe der Eingaben ergibt als Ausgabe einen Frosch.

Es existieren viele verschiedene neuronale Netze mit verschiedenen Fähigkeiten. Tiefe neuronale Netze – daher auch »Deep Learning« – haben nicht nur drei Schichten, sondern sechs oder mehr. Auch das menschliche Hirn besitzt viele solcher Schichten. Je mehr Schichten, desto komplexer wird die mathematische Funktion, die diese Netze erzeugen können, und desto komplexere Probleme können diese Netze lösen. Jürgen Schmidhuber erklärt das so:

»Ich muss dieses System mit seinen vielen Millionen Gewichten dann nicht mehr explizit programmieren, dass es das Muster erkennt. Ich muss am Anfang nur ein paar Zeilen hinschreiben, nämlich den Lernalgorithmus, der dazu führt, dass aus den ganzen Trainingsbeispielen diese Gewichte extrahiert werden, die dazu führen, dass das System gut erkennt.«

Klingt leicht, basiert aber auf kleinteiliger Forschung.31 Bernhard Schölkopf, Direktor am Max-Planck-Institut für Intelligente Systeme in Tübingen, erklärt, warum lernende Maschinen so sinnvoll sind:

»Es geht darum, auf der Basis von empirischen Beobachtungen auf darunter liegende Gesetzmäßigkeiten zu schließen. Das ist dann nötig, wenn es Gesetzmäßigkeiten in der Welt gibt, die zu kompliziert sind, als dass man sie explizit modellieren könnte. Also versucht man mit Lernalgorithmen automatisch mathematische Beschreibungen dieser Gesetzmäßigkeiten zu extrahieren.«

Jürgen Schmidhuber sagt:

»Der Lernalgorithmus ist simpel und macht vom Programmcode her nur ein paar Zeilen aus.« »Der meiste Code geht für die Peripherie drauf: Bilder einlesen, Bilder wieder abspeichern etc. Das deutet darauf hin, dass hinter Mustererkennung gar nicht so viel steckt und dass es relativ einfach ist, einen Lernalgorithmus zu bauen, der einen guten Mustererkenner liefert. Er wird auf ein großes neuronales Netzwerk mit Milliarden von zufällig initialisierten Gewichten angewendet, die durch diesen Lernalgorithmus plötzlich sinnvoll und zweckmäßig werden.«

Künstliche neuronale Netze werden auch nach dem Grad der menschlichen Einwirkung unterschieden.

1. So existieren überwacht lernende neuronale Netze (»Supervised Learning«): Typische künstliche neuronale Netze haben Hunderte von Millionen oder gar Milliarden mögliche Aktivierungszustände. Beim überwachten Lernen wird die Ausgabe der Input-Daten und deren folgende Gewichtung auf Richtigkeit überprüft. Gegebenenfalls wird mit einem statistischen Verfahren der Ausgabefehler korrigiert. Dieser Prozess wiederholt sich bis adäquate Ergebnisse erzielt werden.32

2. Neuronale Netze können noch autonomer agieren. Bei nicht überwachtem Lernen (»Unsupervised Learning«) erkennen die Systeme eigenständig, wie mit den Rohdaten umzugehen ist.

3. Neuronale Netze können auch nicht nur Muster erkennen, sie können als »künstliche Agenten« in ihrer Umwelt aktiv agieren und diese »erforschen«. Das Verfahren nennt sich »Reinforcement-Learning«. Die »Agenten« lernen dabei aus der statistischen Berechnung der Muster, worum es sich handelt und was sie in dieser Umgebung tun müssen – ein nahezu evolutionärer Lernprozess. Der Handlungsimpuls des »Agenten« basiert auf einem Belohnungsmodell. Er agiert, weil bestimmte Art des Verhaltes belohnt wird. Eine Belohnung kann beispielsweise eine reelle Zahl sein. Das System wird daher alles darauf hin optimieren, diese »Zielfunktion« zu erreichen.33

Das Modell, das dem »Reinforcement-Learning« zugrunde liegt, geht auf den Begründer der Verhaltenspsychologie, den Amerikaner Burrhus Frederic Skinner (1904–1990), zurück. Er entwickelte die »operante Konditionierung« und die »Programmierung von Lernen« bei Menschen.34 Lernen fasste er als ein Reiz-Reaktionsmuster auf, das aus der Auseinandersetzung mit der Umwelt entsteht und bei dem erfolgreiches Handeln belohnt wird. Skinner dürfte einer der einflussreichsten Psychologen des 20. Jahrhunderts gewesen sein. Sein Modell, das sich Behaviorismus nennt, erfuhr in den vergangenen Jahren eine neue Renaissance. Vor allem im Zusammenhang mit der Verhaltensanalyse von Menschen, wie wir später sehen werden.35

Die Neuronen einiger neuronaler Netze sind nur in der Lage, Informationen in eine Richtung zu »propagieren«. Viel Fehler entstehen jedoch erst in den tieferen Schichten von Neuronen. Die Korrektur wird beim »Deep Learning« recht schwierig, weil sie durch viele Schichten hindurch übermittelt werden muss. Diesem Problem nahm sich unter anderem Sepp Hochreiter an, Schmidhubers erster Diplomand. Er arbeitete an einem Mechanismus, bei dem die Informationen nicht nur in die eine Richtung »propagiert« werden, also weitergeleitet werden. Zwischen den Neuronen besteht eine Rückkopplung. Diese Art der extrem leistungsstarken Netze heißen »rekurrente neuronale Netze«. Sie sind die Spezialität von Jürgen Schmidhuber.

Bei rekurrenten Netzwerken ist zwischen den Neuronen ein Feedback eingebaut, und ihre spezifische Gewichtung kann als eine Art Speicher oder Gedächtnis funktionieren, der sich die vorherigen Abstraktionen von Mustern merkt und deswegen leistungsstärker wird. Mit diesem Verfahren ist es möglich, große Datenmengen zu verarbeiten, die sehr schnell einlaufen, zum Beispiel Filme oder Sprache. Darauf baut die Bild- und Spracherkennungssoftware auf, die Google, Apple oder Facebook einsetzen.

Bei einem der Wettbewerbe, die Schmidhubers Team gewinnen konnte, mussten die rekurrenten neuronalen Netze mikroskopische Abbilder von Krebszellen im Brustgewebe erkennen. Es ging unter anderem darum, die Zellen zu identifizieren, die auf ein Vorstadium der Erkrankung hinweisen, deren Identifikation die Heilungschancen von Krebspatienten also deutlich erhöht. Schmidhuber sagt:

»Wenn ich mir diese Bilder anschaue, sehe ich selbst keinen Unterschied zwischen bösartigen Zellen und anderen. Wir trainieren aber nun unsere künstlichen neuronalen Netze darauf, dass sie ihre Gewichte mit der Zeit so adjustieren, dass sie später ähnlich gute Vorhersagen machen wie der Facharzt, der die Zellen erkannt hat.«

Das Netz kann nun genauso gut Krebszellen erkennen wie ein Histologe.

Seit über dreißig Jahren forschen Neuroinformatiker an künstlichen neuronalen Netzen. Auch die Durchbrüche, die heute gefeiert werden, basieren auf diesen Arbeiten. Was lange Zeit neben der Theorie und der praktischen Umsetzung fehlte, waren Rechenleistung und ausreichend Daten, um die Netze zu trainieren. Doch das hat sich nun geändert. Geoffrey Hinton, Informatiker und Google-Mitarbeiter, resümiert mit Kollegen in einem Artikel der Zeitschrift Nature:

»Deep Learning erzielt umfassende Durchbrüche bei der Lösung von Problemen, die jahrelang mit den raffiniertesten Ansätzen von Forschern im Feld der Künstlichen Intelligenz nicht gelöst werden konnten. (…) Jahrzehntelang erforderte die Konstruktion von Mustererkennern oder lernenden Maschinen behutsame Ingenieurtätigkeit und beachtliches Fachwissen.«36

Der Schlüsselaspekt von »Deep Learning« besteht darin, dass die neuronalen Schichten nicht mehr von einem Programmierer gewichtet werden müssen, sondern dass dies autonom geschieht – nur auf Grundlage von Daten, die mit einer erlernten Prozedur verarbeitet werden. Es existiert also die grundlegende Funktionen von Neuronen (Input, Aktivierung, Output), die eigenständig einkommende Daten verarbeiten und in eine mathematische Funktion übersetzen. Damit lassen sich Probleme lösen, die aufgrund ihrer Komplexität nicht programmierbar wären.

5. Explosion der Rechenleistung

Jürgen Schmidhuber glaubt, dass die Leistungsfähigkeit künstlicher neuronaler Netze zunehmend wachsen wird:

»In dem Maße, wie unsere neuronalen Netzwerke größer und schneller werden, werden sie nicht nur eine Domäne so gut wie menschliche Experten beherrschen, sondern hundert, eine Million und so weiter. Sie werden dann über sehr viele Muster sehr viel wissen, so wie ein Kind mit der Zeit aus seiner Umwelt sehr viel über ganz viele Objekte lernt.«

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!

Lesen Sie weiter in der vollständigen Ausgabe!