Der elektronische Spiegel - Manuela Lenzen - E-Book

Der elektronische Spiegel E-Book

Manuela Lenzen

0,0
14,99 €

oder
-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

"Der elektronische Spiegel" handelt von dem Abenteuer, Intelligenz zu verstehen, indem man sie nachbaut. Die Wissenschaftsjournalistin Manuela Lenzen nimmt uns mit auf einen Streifzug durch das dynamische Forschungsfeld zwischen Psychologie, Neurowissenschaften, Biologie, Philosophie und KI-Forschung. Künstliche Intelligenz ist noch lange nicht so klug wie wir. Aber gerade deshalb kann sie uns Aufschluss darüber geben, wie Intelligenz wirklich funktioniert und wer wir sind. Während Künstliche Intelligenz landauf, landab diskutiert wird, ist kaum bekannt, dass die klugen Maschinen nie nur dazu da waren, uns langweilige oder gefährliche Arbeit abzunehmen. Sie waren von Beginn an Hypothesen über das Funktionieren des Geistes, elektronische Spiegel, in deren Zerrbild der Mensch nur umso besser erkennen kann, was Intelligenz ausmacht und was ganz offensichtlich nicht. Am Beginn der Künstliche-Intelligenz-Forschung stand die Vorstellung, man müsse das menschliche Denken nur genau genug beschreiben, um intelligente Maschinen bauen zu können. 70 Jahre später hat sich Ernüchterung eingestellt: Die größten Herausforderungen bestehen nicht darin, im Schach zu gewinnen oder in Gedanken geometrische Figuren zu drehen, sondern in so etwas schwer Greifbarem wie Flexibilität, Kreativität und gesundem Menschenverstand; darin, eine Situation zu verstehen und angemessen zu reagieren.

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Manuela Lenzen

DER ELEKTRONISCHE SPIEGEL

Menschliches Denken und künstliche Intelligenz

C.H.Beck

ZUM BUCH

Der elektronische Spiegel handelt von dem Abenteuer, Intelligenz zu verstehen, indem man sie nachbaut. Die Wissenschaftsjournalistin Manuela Lenzen nimmt uns mit auf einen Streifzug durch das dynamische Forschungsfeld zwischen Psychologie, Neurowissenschaften, Biologie, Philosophie und KI-Forschung. Künstliche Intelligenz ist noch lange nicht so klug wie wir. Aber gerade deshalb kann sie uns Aufschluss darüber geben, wie Intelligenz wirklich funktioniert und wer wir sind.

«Das etwas paradoxe Argument dieses Buches ist: Die künstlichen Systeme zeigen uns, gerade weil sie so ganz anders sind als wir, worauf es bei der menschlichen Intelligenz ankommt.»

ÜBER DIE AUTORIN

Manuela Lenzen hat in Philosophie promoviert und schreibt als freie Wissenschaftsjournalistin über Digitalisierung, Künstliche Intelligenz und Kognitionsforschung. Bei C.H.Beck ist von ihr lieferbar: Künstliche Intelligenz. Was sie kann & was uns erwartet (42023); Künstliche Intelligenz. Fakten, Chancen, Risiken (2020).

INHALT

EINLEITUNG: DER ELEKTRONISCHE SPIEGEL

Übersicht

1: ALTERNATIVE INTELLIGENZ

Optimistische Anfänge

Weniger Mais ist ein Getreide – und die Welt ganz schön kompliziert

Wenn Maschinen selber lernen

Das Beste aus zwei Welten

Groß, größer, Sprachmodelle

Game over?

Dringend gesucht: der «gesunde Menschenverstand»

2: IM REICH DER GEISTER

Der Raum möglicher Geister und was der Computer damit zu tun hat

Die Vielfalt natürlicher Geister

Mythos Allgemeine Intelligenz

Denken wie ein Mensch

Ein Pflichtenheft

3: EIN «KRASS GROSSES PROBLEM»

Von Robotern und Kakadus

Theorie und Praxis interdisziplinärer Arbeit

Wider die Verhexung des Verstandes durch die Sprache

4: RAUS AUS DEM GOLDENEN KÄFIG

Grobi geht ins Museum

Welche Rolle spielt der Körper?

Blumen gießen, Staub wischen, Post sortieren: der virtuelle Spielplatz

Ein ungleicher Wettbewerb: die Tier-KI-Olympiade

5: DIE WELT WAHRNEHMEN

Sehen: Kein Projekt für einen Sommer

Schmecken, Tasten, Riechen

Wahrnehmen ist Abfragen: Projekt Eisenbahn

Wo bin ich?

Sehen, was man braucht

6: DER MENSCH ALS VORBILD

Ausgeschlafene Algorithmen lernen besser

Neugier für Roboter

Überfordert die Roboter nicht!

Die Tür ins nächste Level

Allein spielen ist langweilig

Objektiv geht gar nichts

Eine Startsoftware für Mensch und Maschine

Der Körper als Filter, die Kindheit als Programm

7: SPRACHE UND DAS «ABSTRAKTE DENKEN»

Mehr als «Schaum auf der Oberfläche des Denkens»

Denkwerkzeuge statt Repräsentationen

Die Frage «Warum?»

8: ZWISCHEN VERWIRRUNG UND VERFÜHRUNG

XAI: Algorithmen besser verstehen

Technik ist nicht immer die Lösung

Können Maschinen Moral?

9: ALLE MODELLE SIND FALSCH, ABER MANCHE SIND NÜTZLICH

DANK

ANMERKUNGEN

Einleitung: Der elektronische Spiegel

1 Alternative Intelligenz

2 Im Reich der Geister

3 Ein «krass großes Problem»

4 Raus aus dem goldenen Käfig

5 Die Welt wahrnehmen

6 Der Mensch als Vorbild

7 Sprache und das «abstrakte Denken»

8 Zwischen Verwirrung und Verführung

9 Alle Modelle sind falsch, aber manche sind nützlich

BILDNACHWEIS

«Essentially, all models are wrong, but some are useful.»

George Edward Pelham Box (1919–​2013)

EINLEITUNG: DER ELEKTRONISCHE SPIEGEL

Eines ist sicher: Es geht! Materie kann Intelligenz entwickeln, der Mensch ist der lebende Beweis dafür. Menschen können zum Mond fliegen, Gene sequenzieren, Symphonien komponieren und UNO-Vollversammlungen abhalten. Sie können über sich selbst nachdenken. Sie können Naturgesetze formulieren und Ideen mit ein paar Sätzen an andere Menschen weitergeben. Nur, wie sie dies alles zuwege bringen, ist trotz mindestens zweieinhalbtausendjährigen Nachdenkens und Forschens alles andere als klar.

Auf den folgenden Seiten geht es um eine besondere Art, der Lösung dieses Rätsels näher zu kommen: Es geht um das Projekt, Intelligenz zu verstehen, indem man sie nachbaut: in Algorithmen, Avataren und Robotern. Und es geht darum, wie dieses Experiment unser Bild von Intelligenz verändert.

Der wichtigste Grund dafür, dass wir noch immer nicht recht verstanden haben, wie Menschen es fertigbringen, klug zu sein, dürfte darin liegen, dass wir nun einmal nur den geringsten Teil von dem bewusst mitbekommen, was in uns vorgeht, wenn wir denken, rechnen, planen, argumentieren oder andere Dinge tun, die wir mit Intelligenz in Verbindung bringen. Es reicht nicht, ein bisschen nach innen zu lauschen oder beim Denken vor sich hinzumurmeln. Wir können dem Geist nicht einfach bei der Arbeit zusehen. Um ihm auf die Schliche zu kommen, braucht es die Tricks und Kniffe der Psychologie, die Strategiespiele der Wirtschaftswissenschaft, die Rekonstruktionen der Evolutionsbiologie und vieles mehr. Vor allem aber brauchen wir etwas, an dem wir uns abarbeiten, mit dem wir uns vergleichen können.

Erst wenn man etwas vergleicht, kann man feststellen, was das Besondere an einer Sache ist, erst der Vergleich macht deutlich, was nicht selbstverständlich ist, was auch anders sein könnte und was einer Erklärung bedarf.

Seit der Antike sind es meist Tiere, die herhalten müssen, um zu zeigen, was die menschliche Intelligenz besonders macht. Dabei ging und geht es bis heute entweder darum, den entscheidenden Unterschied zwischen Mensch und Tier auszumachen, die differentia specifica, oder darum, gerade diese zu hinterfragen sowie Gemeinsamkeiten und die evolutionäre Kontinuität von Tier und Mensch herauszustellen. Selbstbewusstsein, Werkzeuggebrauch, Sprache, komplexe Aufgaben: Welche Tiere können da mithalten und gibt es etwas, das dem Menschen vorbehalten bleibt? Wenn Orang-Utans Werkzeuge herstellen und benutzen können, heißt das, dass der Mensch gar nichts Besonderes ist? Wenn sie es aber erst tun, nachdem sie von Forscher*innen auf die Idee gebracht wurden, sind wir dann vielleicht doch anders als sie und haben Fähigkeiten ganz für uns allein?

Von Tieren lernen wir zweifellos viel über Intelligenz und ihre vielfältigen Ausprägungen. Aber Tiere, vor allem diejenigen, die für Intelligenztests zumeist herhalten müssen – Schimpansen, Raben, Elefanten, Delfine, Kraken –, sind uns viel zu ähnlich, um uns darauf zu stoßen, was Intelligenz zugrunde liegt. Sie sind Lebewesen wie wir, haben eine Evolutionsgeschichte, einen Körper, Wahrnehmungen, Empfindungen, Bedürfnisse und Sozialkontakte. Sie organisieren ihr Leben selbst. Sie können, kurz gesagt, schon viel zu viel.

Wenn man verstehen möchte, was Intelligenz grundlegend ausmacht, lohnt es sich, ganz am Anfang zu beginnen, mit einem System, das erst einmal gar nichts kann. Und das sind nicht die Schimpansen, nicht die hirnlosen Quallen, nicht einmal die Einzeller, sondern die Maschinen. Ihnen fehlt all das, was wir bei Lebewesen ungefragt voraussetzen und dessen Bedeutung für die Intelligenz wir deshalb gar nicht in den Blick bekommen.

Wie groß das Problem, Intelligenz zu verstehen, wirklich ist, wird einem erst klar, wenn man einen Fotoapparat in der Hand hält und zu überlegen beginnt, wie man diesem beibringen könnte, etwas zu sehen. Oder einem Audiorecorder, etwas zu verstehen. Herausforderungen, die im Übrigen bis heute nicht wirklich gemeistert sind.

Ein zweiter Grund, sich einmal an den Maschinen abzuarbeiten: Womit wir uns vergleichen, bestimmt ganz wesentlich das Bild, das wir von uns selbst gewinnen. Natürlich kommt es auf die Tierart an, und es ist nicht ganz fair, den Menschen gleich gegen das ganze Tierreich antreten zu lassen. Aber im Wesentlichen zeigen die Vergleiche von Mensch und Tier, dass es mit unseren Sinnesorganen nicht so weit her ist, wir motorisch eher unterbegabt sind und man unsere sportlichen Höchstleistungen mit der Lupe suchen muss. Ja, manche Menschen laufen ausdauernder als Pferde, aber wie ist das mit den großen Wildkatzen? Und den Zugvögeln? Dafür stechen unsere kognitiven Fähigkeiten heraus, unsere Möglichkeiten, nicht immer unmittelbar zu handeln, sondern zurückzutreten, zu abstrahieren, zu planen, zu unterrichten, in Geschichten zu leben.

Vergleiche von Menschen mit höheren Wesen, mit Engeln oder Göttern, sind ein wenig aus der Mode gekommen, es ist mit der empirischen Evidenz ja auch so eine Sache. Vor allem aber ist das Ergebnis einfach zu frustrierend: Unmoralisch sind wir, inkonsequent, der Geist träge, der Wille schwach. (Heute schon Sport getrieben?) Immer wieder bleiben wir hinter den eigenen Ansprüchen zurück. Und sterblich sind wir noch dazu.

Im Vergleich mit künstlichen Systemen zeigt sich noch einmal ein ganz anderes Bild. Was die «abstrakten» Fähigkeiten angeht, das Kopfrechnen etwa, können wir nicht einmal mit einem billigen Taschenrechner mithalten. In Spielen, von Schach über Go bis Poker, führt der Mensch seit Jahren Rückzugsgefechte gegen Computersysteme. Wir können nur mit vergleichsweise wenigen Informationen zugleich im Kopf umgehen, unser Gedächtnis ist fehlerhaft und beschränkt, und wir entscheiden oft wenig rational. Dafür aber stehen wir nicht gleich auf dem Schlauch, wenn eine Situation sich ein wenig verändert, die Dinge nicht da liegen, wo sie hingehören, oder uns die Sonne blendet. Wir lassen uns nicht von ein paar Aufklebern auf einem Stoppschild in die Irre führen und haben in der Regel auch kein Problem damit, einen großen roten Feuerwehrwagen am Straßenrand zu erkennen, was man nicht von allen (teil-)autonomen Fahrzeugen sagen kann.

Mit der «Ausdauer» der Maschinen können wir nicht konkurrieren, dafür können sich unsere Körper (in Grenzen) selbst reparieren, und wir haben motorisch in der Regel die Nase (bzw. die Hände) vorn. Nicht umsonst stehen am Ende automatisierter Fertigungsstraßen und in den Hallen der Online-Warenhäuser Menschen und packen mit ihren geschickten Händen die fertigen Werkstücke oder Bestellungen in Schachteln und Kartons.

Der Vergleich mit den Tieren (und auch der mit höheren Wesen) stützt eine eher traditionelle Sicht auf die Intelligenz. Sie besagt in etwa: Intelligenz sitzt im Kopf, sie zeigt sich vor allem bei den abstrakten Problemen. Die noch immer nicht wirklich intelligenten Maschinen zeigen uns ein anderes Bild. Denn inzwischen hat sich erwiesen, dass die größten Herausforderungen für künstliche Systeme nicht darin bestehen, im Schach zu gewinnen oder geometrische Figuren in einem imaginären Raum zu drehen, sondern in so etwas schwer Greifbarem wie Flexibilität, Kreativität und gesundem Menschenverstand; darin, eine Situation zu verstehen und angemessen zu reagieren.

Der Vergleich mit den Maschinen zeigt: Wenn wir Intelligenz verstehen wollen, können wir die Errungenschaften der Evolutionsgeschichte, die Erfahrungen der Kindheit, unsere Körper, die Umgebung, in der wir unterwegs sind, und unsere Sozialkontakte nicht umstandslos beiseiteschieben und uns auf die Dinge konzentrieren, die wir für intelligent halten, nur weil sie uns Mühe machen. Das macht es natürlich nicht überflüssig, die kognitiven Fähigkeiten der Tiere zu erforschen. Doch unser Bild der Intelligenz wird bei dem Versuch, sie in Maschinen zu realisieren, ein anderes.

Wie steuert sie ihre Bewegungen? Eine Stabheuschrecke und ihr künstliches Pendant, das Aufschluss darüber geben soll, wie das Tier sich bewegt.

Neu ist diese Perspektive nicht: Vergleiche von Menschen und imaginierten oder echten mechanischen, wasser- oder luftdruckgetriebenen Automaten gibt es seit der Antike. Menschen bewunderten ihre Kraft und Unermüdlichkeit, dachten anhand der Maschinen über Beseeltheit und Seelenlosigkeit nach und amüsierten sich an Verwirrspielen, bei denen Belebtes und Unbelebtes, Echtes und Imitiertes munter durcheinandergehen. Diese Faszination hat sich bis in die Science-Fiction unserer Tage erhalten.

Und es gibt ein drittes Argument dafür, künstliche Systeme zu verwenden, um Intelligenz besser zu verstehen: Diese künstlichen Systeme müssen erst einmal gebaut werden. Sie generieren sich nicht «von selbst», wie wir und die Tiere. Die Entwickler*innen müssen also jede Kleinigkeit durchdenken und selber machen. Damit werden die künstlichen Systeme zu elektronischen Spiegeln: Sie sind in Algorithmen, Avatare oder Roboter gegossene Annahmen darüber, wie intelligentes Verhalten zustande kommen könnte. So spiegeln sie uns unsere Vorstellungen von Intelligenz, ihren Bedingungen und Voraussetzungen wider.

Diese Strategie ist sehr effizient: Denn wenn die künstlichen Systeme dann doch keine oder nicht die gewünschte Intelligenz entwickeln, stoßen sie uns mit der Nase darauf, dass unsere Vorstellungen offenbar nicht richtig oder zumindest unvollständig sind. Nichts entlarvt falsche oder unklare Annahmen über kognitive Fähigkeiten besser als ein desorientierter Roboter oder die schrägen Antworten eines Chatbots.

Auch die Idee, durch das Nachbauen etwas über das Nachgebaute zu lernen, ist nicht neu: So präsentierte Jacques de Vaucanson 1738 dem staunenden Publikum in Paris drei Automaten: einen Trommler, eine Flötenspielerin und eine Ente. Um die Flötenspielerin zu bauen, hatte Vaucanson menschlichen Flötenspieler*innen beim Musizieren genau zugesehen. Wie der Ton in der Flöte sich verändert, fand er aber erst heraus, als er seine Automaten baute, so die Wissenschaftshistorikerin Jessica Riskin.[1] Dabei habe er festgestellt, dass der Druck, der nötig ist, um einen Ton zustande zu bringen, auch davon abhängt, welche Note zuvor gespielt wurde. Diesen Effekt bekommen Flötenspieler*innen beim Spielen gar nicht mit und können deshalb auch nicht davon berichten.

Vaucansons Automaten waren philosophische Experimente, so Riskin, es waren Versuche, herauszufinden, welche Aspekte von Lebewesen in einer Maschine nachgebildet werden können, bis zu welchem Grad das gelingen und was man daraus über die Natur lernen würde. Sie seien als Beitrag zu der Frage zu verstehen, ob Menschen und Tiere letztlich wie Maschinen funktionieren. Dies sei der eigentliche Grund für ihren Erfolg und für die Faszination gewesen, die von ihnen ausging. Auch diese Faszination hat sich bei heute erhalten. Der Mensch ist keine Maschine, natürlich nicht. Das sagt sich leicht, aber was genau den Unterschied ausmacht und was dieser mit den Erfolgen und Misserfolgen der Künstlichen Intelligenz zu tun hat, ist nach wie vor offen.

Die Automaten des 18. Jahrhunderts waren faszinierend, doch mit ihren Fähigkeiten war es dann doch nicht so weit her. Im Laufe der Zeit wurden die Automaten komplexer und vielfältiger, aber nicht intelligenter. Erst mit der Entstehung der Künstliche-Intelligenz-Forschung Mitte des vergangenen Jahrhunderts begann ein neues Kapitel. Es gibt bislang keine Maschine, die im menschlichen Sinne intelligent wäre; ob es überhaupt jemals intelligente Maschinen geben wird, ist umstritten. Dennoch zeigen die Systeme inzwischen ein Niveau, das den Vergleich von Mensch und Maschine, natürlicher und künstlicher Intelligenz interessant macht – was die Leistungen, aber auch was die Unzulänglichkeiten dieser Systeme angeht.

Vor allem die großen Sprachmodelle sind inzwischen so gut, dass sie immer wieder und immer öfter für Verwirrung darüber sorgen, womit wir es eigentlich zu tun haben, wie weit ihr Verständnis der Welt reicht und ob sie nicht vielleicht doch schon Bewusstsein entwickelt haben, zumindest ein bisschen.

Zwei Forschungsfelder, die sich parallel entwickelt haben, stehen heute für zwei Perspektiven auf die künstlichen Systeme: die Kognitionsforschung und die Künstliche Intelligenz. Kognitionsforscher*innen versuchen, ihre Annahmen darüber, wie Intelligenz funktioniert, möglichst präzise zu formulieren und sie in künstlichen Systemen zu testen. KI-Forscher*innen versuchen, Systeme zu bauen, die intelligentes Verhalten an den Tag legen, und lassen sich dabei (auch) von Menschen und Tieren inspirieren.

Immerhin stellen Menschen und Tiere bislang die einzigen Vorbilder für intelligentes Verhalten. Die KI-Forschung könnte freilich auch ganz andere Wege gehen. Die Evolution ist ein alter Flickschuster. Sie muss mit dem arbeiten, was da ist, kann Umwege nicht ungeschehen machen, nie, wie ein*e Ingenieur*in, auf einem leeren Blatt von vorn beginnen. Vielleicht also gibt es bessere, direktere, elegantere Wege, intelligente Maschinen zu bauen, als sich an biologischen Vorbildern zu orientieren. Zumal es bei vielen Aufgaben, die heute Algorithmen aus dem Bereich der KI für uns erledigen, gar nicht um Intelligenz im umfassenden menschlichen Sinne geht, sondern um ganz spezielle Leistungen: etwa darum, ein verändertes Betriebsgeräusch zu erkennen und Alarm zu schlagen, bevor eine Maschine ausfällt.

«Alt Intelligence», alternative Intelligenz, nennt der Philosoph und Kognitionsforscher Gary Marcus das Ziel von Projekten, bei denen es nicht darum geht, Maschinen zu bauen, die Probleme genauso lösen würden, wie Menschen das tun. Sondern darum, sie irgendwie zu den gewünschten Lösungen zu befähigen. Auf diese Weise, so Marcus, schafft man eine Art Ersatz für Intelligenz. Daran sei nichts falsch – außer vielleicht der Hybris, die mit der Idee einhergeht, man könne es auf einem anderen Weg schaffen, Intelligenz in die Welt zu bringen, als ihn die Natur gegangen ist.

Tatsächlich zeigen diese «alternativ intelligenten» Systeme in vielen Bereichen beeindruckende Leistungen. Doch je flexibler Algorithmen reagieren sollen, je komplexer ihre Aufgaben werden, je weiter sich Roboter aus den Labors in das bunte Durcheinander der Welt vorwagen, desto deutlicher wird, wie begrenzt das Verständnis dieser Systeme für die Welt nach wie vor ist und wie viel ihnen zu menschenähnlicher Intelligenz noch fehlt. Und desto interessanter wird es auch für KI-Forscher*innen, sich die natürlichen Vorbilder noch einmal ganz genau anzusehen. Hier treffen beide Unternehmen, die Kognitionsforschung und die KI, zusammen.

«Künstliche Intelligenz», schrieb der amerikanische Informatiker und Pionier der KI-Forschung John McCarthy, «ist die Wissenschaft von der Entwicklung und Herstellung intelligenter Maschinen, vor allem von Computerprogrammen. Sie ist mit dem ähnlichen Projekt verwandt, Computer zu verwenden, um die menschliche Intelligenz besser zu verstehen, aber KI muss sich nicht auf Methoden beschränken, für die es biologische Vorbilder gibt.»[2]

Beschränken muss sie sich ganz sicher nicht. Wir werden im ersten Kapitel sehen, dass die KI-Forschung mit Verfahren, die mit der menschlichen Art zu denken nicht viel zu tun haben, große und immer größere Erfolge feiert – dass daneben aber auch immer deutlicher wird, wie viel die KI von der Natur noch lernen kann.

Wenn wir wüssten, wie Menschen es schaffen, klug zu sein, hätten wir vielleicht längst Roboterbutler, autonome Autos und Chatbots, die ein Kilogramm Stahl nicht für schwerer halten als ein Kilogramm Federn. Oder, auch dies ist ein denkbares Ergebnis, wir wüssten, warum das Projekt «Künstliche Intelligenz» nicht gelingen kann.

Beide, Kognitionswissenschaft und KI-Forschung, setzen freilich darauf, dass man herausfinden kann, was Intelligenz ausmacht. Auf den folgenden Seiten geht es darum, was wir durch Versuche, künstliche Systeme zu bauen, die sich intelligent anstellen, über uns selbst lernen können. Und es geht, umgekehrt, darum, was man aus diesen Einsichten wiederum für den Bau intelligenter Maschinen ableiten kann. Dabei geht es nicht darum, den Menschen in irgendeinem Sinne auf eine Maschine zu «reduzieren» und seine Rechte oder Würde anzutasten. Es geht, wie schon bei Jacques de Vaucanson, um die Frage, was denn genau den Unterschied zwischen Organismus und Maschine in Sachen Intelligenz ausmacht – und warum es so schwierig ist, eine intelligente Maschine zu bauen.

Bei diesem Unternehmen stellen sich einige altbekannte Fragen noch einmal neu: Was ist eigentlich Intelligenz? Was bedeutet es, etwas im Kopf zu haben? Was bedeutet es, etwas wahrzunehmen, zu erkennen, zu verstehen? Und was ist dieser ominöse gesunde Menschenverstand, mit dem die Maschinen sich so schwertun?

Um Antworten auf diese Fragen zu finden, habe ich mit KI- und Kognitionsforscher*innen gesprochen, Labors besucht, gestaunt und manches Mal geschmunzelt, über Menschen und Maschinen, über schlafende und träumende Algorithmen, neugierige Roboter und Avatare, die sich auf Spielplätzen tummeln. Und dabei habe ich genau die Erfahrung gemacht: Im Spiegel der noch immer nicht besonders intelligenten Maschinen lernen wir vor allem, uns selbst neu zu sehen.

Übersicht

Vielleicht muss künstliche Intelligenz nicht funktionieren wie natürliche, sie hat in den allermeisten Fällen ja auch ganz andere Aufgaben. Diese «alternative Intelligenz» feiert einen Erfolg nach dem anderen – und trägt doch ein paar unerwartete und unerwartet hartnäckige Probleme mit sich herum. Um die grundlegenden Ansätze und Verfahren der Künstlichen Intelligenz, ihre Vorzüge und Grenzen geht es im ersten Kapitel.

Das zweite Kapitel führt durch die Vielfalt natürlicher Geister und erklärt, warum der Computer nicht nur wieder einmal, nach Zisternen, Kirchenorgeln und Telefonzentralen, eine unpassende Technik ist, mit der man den Geist vergleicht, nur weil sie gerade «in» ist, und wirft einen genaueren Blick auf die menschliche Intelligenz.

Das dritte Kapitel berichtet von den Schwierigkeiten und Tücken des Unterfangens, natürliche Intelligenz verstehen und nachbauen zu wollen – und das Projekt überhaupt erst einmal klar zu formulieren.

Intelligenz, so viel ist zu Beginn des vierten Kapitels klar, hat damit zu tun, den goldenen Käfig zu verlassen, in dem die meisten künstlichen Systeme bislang funktionieren. Intelligenz hat damit zu tun, in der Welt unterwegs zu sein, und sei es nur in einer simulierten.

Wer in der Welt unterwegs sein will, muss diese allerdings erst einmal wahrnehmen können. Im fünften Kapitel geht es darum, wie Forscherinnen und Forscher versuchen, künstliche Systeme sehen, fühlen, schmecken und riechen zu lassen. Dabei wird deutlich, dass die Auflösung der Kamera oder die Differenzierungsfähigkeit der Sensoren nur ein kleiner Teil des Problems sind. Es wird sich zeigen, dass sich bei den verbleibenden Problemen etwas so wenig Maschinentypisches wie ein Schläfchen als hilfreich erweisen kann.

Wie aber bringt man künstliche Systeme überhaupt dazu, sich in die Welt zu begeben? Auch hier liefert der Blick auf den Menschen eine Antwort: Sie müssen eben neugierig sein. Und nicht nur das: Es könnte sein, dass künstliche Systeme, um intelligent zu werden, eine Art Entwicklungsprogramm benötigen, wie es auch Kinder durchlaufen.

Von der Idee einer Intelligenz, die sich vor allem im Kopf abspielt, ist bis dahin nicht viel übrig geblieben. Vielleicht aber schwingt das Pendel hier zu weit aus: Im siebten Kapitel komme ich deshalb auf das klassische Verständnis von Intelligenz zurück, auf Sprache, Begriffe und abstrakte Gedanken, wie sie die menschliche Intelligenz zweifellos auch ausmachen.

Das achte Kapitel führt in die Praxis und zeigt, wie die automatisierten Entscheidungsalgorithmen, die immer häufiger in ganz verschiedenen Bereichen zum Einsatz kommen, uns auch ganz praktisch den Spiegel vorhalten und uns dazu zwingen, genauer darüber nachzudenken, wie wir welche Entscheidungen treffen und warum.

Grübeln: ein Sonderfall von Intelligenz. «Der Denker» von Auguste Rodin im Garten des Musée Rodin, Paris

Im letzten Kapitel schließlich schlage ich, als Essenz der Überlegungen, vor, eine Ikone auszutauschen: Es gibt ein Bild, das wie kein anderes für unsere traditionelle Vorstellung von Intelligenz steht: «Der Denker» von Auguste Rodin. Er sitzt einsam auf seinem Sockel, den Kopf schwer in die Hand gestützt, und versucht, seine Probleme mit sich allein auszumachen. Hinter diesem Bild steht eine lange abendländische Tradition: Denken spielt sich im eigenen Kopf ab. Der Geist ist das andere der Materie, ist irgendwie gefangen in einem Körper, der ihn ausbremst und behindert. Wenn er nur frei wäre von all den Bedürfnissen, Begierden, Bedrückungen, von Kopfschmerz und Ermüdung, von Alter und Trägheit, dann könnte er wahre Erkenntnis erlangen. Aber dummerweise steckt er ja nun einmal fest und muss sich gegen all die Einschränkungen, die daraus resultieren, wehren, so gut er das eben kann.

In diesem Buch soll deutlich werden, warum ein anderes Bild das Wesen der Intelligenz viel besser erfasst: das eines interessanten und gut besuchten Spielplatzes.

1

ALTERNATIVE INTELLIGENZ

Am Beginn der Versuche, künstliche intelligente Wesen zu schaffen, standen Nachahmungen des Äußeren. Durch tönerne, später metallene Körper sprachen verfremdete Stimmen, komplizierte Mechanismen (und auch schon mal versteckte Menschen) vermittelten den Eindruck eigenständiger Bewegung. Die Automaten und frühen Roboter sollten uns ähnlich sehen, sie erregten Aufsehen, wenn sie ein paar Schritte tun, ein paar Worte sprechen oder gar eine Zigarette rauchen konnten.

Bis heute sind Menschen fasziniert von humanoiden, menschenähnlichen Robotern, bis heute wird an Systemen gearbeitet, die uns äußerlich so ähnlich sind wie nur möglich, in Gestalt und Größe, Haut und Haar, Mimik und Gestik. Allerdings kann man von der äußerlichen Ähnlichkeit eines Systems zum Menschen nicht auf dessen Intelligenz schließen, oft sind die Humanoiden ferngesteuert und geben vorprogrammierte Sätze von sich.

Die KI-Forschung als wissenschaftliche Disziplin setzte auch nicht bei Robotern, sondern erst einmal bei der «Software» an, bei Algorithmen, die einen Teil dessen nachbilden, was beim Denken (vermutlich) im Kopf vor sich geht. Mit diesen «körperlosen» Systemen ist sie sehr erfolgreich. Fast täglich wird derzeit von neuen Leistungen künstlicher intelligenter Systeme berichtet, von noch überzeugenderen Dialogen, noch realistischeren Bildern, noch konsistenteren Texten, noch besserem automatisch generierten Code, gar von bestandenen Examina und Aufnahmeprüfungen.

Doch bis heute haben diese Systeme mit grundlegenden Problemen zu kämpfen. Es geht mir im Folgenden nicht darum, auf das zu zeigen, was diese Systeme trotz aller Erfolge noch nicht können, nicht darum, die Erfolge der KI-Forschung kleinzureden. Es geht mir darum, was diese Probleme darüber verraten, wie Intelligenz funktioniert, darum, was sich aus dieser seltsamen Gleichzeitigkeit großer Erfolge und grundlegender Probleme darüber lernen lässt, was den Systemen fehlen könnte und was Intelligenz ausmacht.

Optimistische Anfänge

Zuerst erschien das Projekt recht übersichtlich. Im Sommer 1956 fand im Dartmouth College in Hanover, New Hampshire, eine Art Sommerschule statt, zu der sich in wechselnden Konstellationen etwa dreißig Forscher (ja, nur Männer) mit der Absicht trafen, in zwei Monaten deutliche Fortschritte bei dem Unternehmen zu erzielen, Maschinen dazu zu bringen, Begriffe zu bilden, Sprache zu verwenden, Probleme zu lösen, die zu lösen bislang dem Menschen vorbehalten war, und sich selbst zu verbessern. Sie nannten das Projekt «Künstliche Intelligenz».

Diese Fortschritte gab es in der Tat, nur reichten die veranschlagten zwei Monaten nicht ganz aus. Es sollte etwa sechzig Jahre dauern, bis sich echte Erfolge einstellten. 1956 schauten die Forscher erst einmal auf den Menschen. Sie gingen davon aus, alle Aspekte der menschlichen Intelligenz so genau beschreiben zu können, dass sich eine Maschine dazu bringen ließe, sie zu imitieren.

Im Rückblick ist eine der wichtigsten Erkenntnisse dieses Unternehmens, dass genau diese zentrale Annahme nicht stimmt: Je genauer die Forscher versuchten, beim Menschen abzuschauen, wie Intelligenz funktioniert, desto klarer wurde, wie wenig diese eigentlich verstanden war und bis heute ist. Bis heute blicken KI-Forscher*innen auf die Psychologie, die Biologie, die Anthropologie und die Evolutionsforschung, nur um festzustellen, dass so genau, wie sie es wissen müssten, auch dort noch niemand hingeschaut hat.

Vielmehr zeigte sich, was heute das Moravec-Paradox genannt wird: «Es ist vergleichsweise einfach, Computer dazu zu bringen, auf dem Niveau eines Erwachsenen Intelligenztests zu lösen oder Mühle zu spielen», schrieb der Roboterforscher Hans Moravec 1988 in seinem Buch Mind Children. «Und es ist schwierig oder unmöglich, ihnen die Fähigkeit eines einjährigen Kindes zu geben, wenn es um Wahrnehmung und Bewegung geht.» Man kann es noch einfacher fassen: Vieles, was uns schwerfällt, fällt den Algorithmen, Robotern und Avataren leicht, vieles, was uns leichtfällt, ist für sie ganz schön schwierig. Das sei eigentlich auch kein Wunder, meinte Moravec, immerhin gehörten Wahrnehmung und Bewegung zu denjenigen Fähigkeiten, an denen die Evolution am längsten gearbeitet habe. Das abstrakte Denken und das Rechnen seien dagegen relativ junge Errungenschaften.

Uns fällt schwer, was wir explizit lernen müssen: Schach spielen etwa, rechnen, logisch schließen. Und weil uns dies schwerfällt, bewundern wir Menschen, die es besonders gut können, als sehr intelligent. Allerdings sind gerade diese regelbasierten, mühsam erlernten Fähigkeiten diejenigen, die in Computern vergleichsweise leicht realisiert werden können. Jeder Taschenrechner rechnet schneller und besser als unsereiner. Er hat keine Konzentrationsprobleme, ermüdet nicht, und was in seinen Speicher passt, wird er richtig berechnen. Dennoch würden wir ihn nicht für intelligent halten.

Doch Menschen können vieles andere, was sie nicht explizit lernen müssen, was sie für ein Programm allerdings auch nicht in Sätze und Regeln fassen können. Wie etwa erkennen Sie das Gesicht eines Freundes in einer Menschenmenge? Und wie unterscheiden Sie einen Hund von einer Katze? Fell, vier Beine, Schwanz, spitze Ohren, bisweilen sogar gleiche Größe: Woher wissen Sie eigentlich, was die Katze ist und was der Hund? Liegt es an der Nase? Könnten Sie jemandem, der die Bilder nicht sehen kann, den Unterschied erklären? Vermutlich nicht.

Wie unterscheidet man einen Hund von einer Katze?

Das ist aber auch gar nicht nötig. Der Werkzeugkasten der Künstlichen Intelligenz ist längst nicht mehr auf Verfahren beschränkt, die menschliches Wissen in Sätze fassen und dem Computer die Regeln vorgeben, nach denen diese zu verarbeiten sind. Die Verfahren des maschinellen Lernens kommen ohne solche Vorgaben aus. Mit ihrer Hilfe lassen sich auch Fähigkeiten im Computer nachbilden, von denen wir selbst nicht wissen, wie sie uns gelingen. Die lernenden Verfahren benötigen statt der Sätze und Regeln genug Trainingsdaten und Rückmeldungen über ihre Leistungen, dann werden sie die Lösung selbst finden.

Diese Verfahren haben eine gewisse Emanzipation der künstlichen Systeme von der Notwendigkeit, menschliches Wissen einzuprogrammieren, möglich gemacht. Das Wissen der Linguist*innen über die Struktur von Sprache? Brauchen wir nicht, das Übersetzen klappt besser, wenn die Systeme stattdessen mit noch größeren Datenbeständen trainiert werden. Schachspielen anhand menschlicher Trainingspartien lernen? Besser nicht, wenn die Maschinen das untereinander oder mit sich selbst ausmachen, werden sie innovativer. Das maschinelle Lernen ist in der KI heute der berühmte Hammer, für den jedes Problem aussieht wie ein Nagel. Es ähnelt nur oberflächlich dem menschlichen Lernen, darauf kommen wir zurück.

Auf diese Weise entstanden mächtige Spezialisten. Und je erfolgreicher sie wurden, desto mehr trat die Suche nach der «echten», «starken», «allgemeinen» Intelligenz, der Intelligenz auf menschlichem oder übermenschlichem Niveau in den Hintergrund. Die KI-Forschung hat mit dem Blick auf den Menschen begonnen und sich, auch mithilfe des maschinellen Lernens, immer weiter von diesem Vorbild emanzipiert. Warum auch nicht? Zum einen könnte es viele Arten geben, Intelligenz zu realisieren. Zum anderen braucht nicht jedes System Intelligenz auf menschlichem Niveau. Ein Algorithmus, der Alarm schlägt, wenn die Salamischeiben nicht ordentlich auf der Tiefkühlpizza gelandet sind, darf gerne ein Spezialist sein und bleiben, Hauptsache, er funktioniert.

Heute ist die Suche nach dem universellen Problemlöser, wie er in der frühen Phase der KI-Forschung möglich und wünschenswert erschien, zu einer Spezialdisziplin mit eigenem Namen geworden: Künstliche Allgemeine Intelligenz, Artificial General Intelligence (AGI). Manchmal ist, etwas bescheidener, auch von Human Level Intelligence (HLI) die Rede, also von Maschinen, die «nur» so intelligent wären wie wir. Dieses Forschungsfeld gilt vielen als ein bisschen abseitig, als unrealistisch, ja größenwahnsinnig. Denn bis heute ist nicht abzusehen, wie dieses Ziel erreicht werden könnte. Nur wenige Institutionen oder Firmen, etwa Googles Forschungsinstitut DeepMind, schreiben sich noch werbewirksam «to solve intelligence», «das Rätsel der Intelligenz lösen», als Ziel auf ihre Website.

Heute kann man zwei Entwicklungen beobachten: Während manche darauf setzen, dass immer mehr Daten, bessere Software und immer leistungsfähigere Rechner ausreichen werden, um Systeme zu realisieren, die mit dem Durcheinander der Welt zurechtkommen – und sei es mithilfe von Quantencomputern, die wortwörtlich einen Quantensprung in Sachen Leistungsfähigkeit versprechen –, halten andere es für nötig, dass sich die Forschung umorientiert und noch einmal ganz anders ansetzt: bei Systemen, die sich viel stärker an natürlicher Intelligenz, an intelligenten Organismen orientieren, an ihren Körpern und Sinnesorganen, ihrer Entwicklungsgeschichte und ihrer Lebensweise. Denn sonst könnte es sein, wie es der KI-Forscher und Lehrbuchautor Stuart Russell einmal in einem Vortrag formulierte, dass immer leistungsfähigere Maschinen nur dazu führen, dass man die falschen Antworten immer schneller bekommt.

Die niedrig hängenden Früchte sind geerntet, heißt es manchmal in der KI-Forschung. Jetzt könnte es an der Zeit sein, noch einmal genauer hinzuschauen, wie Intelligenz beim Menschen funktioniert, um mit den künstlichen Systemen weiterzukommen. «Die KI-Forschung hat sich von ihrem eigenen Erfolg ablenken lassen», konstatiert Iris van Rooij, Associate Professor für Computational Cognitive Neuroscience an der School of Psychology and Artificial Intelligence der Universität Radboud in Nijmegen. «Sie war technologisch sehr erfolgreich, aber es wird immer deutlicher, dass das nicht genug ist, dass etwas fehlt und vermutlich von Beginn an gefehlt hat.» Wenn sich die dienstbaren künstlichen Geister also nahtlos in unseren Alltag integrieren sollen, wenn sie in der Lage sein sollen, auf Fragen zuverlässig zu antworten und autonome Fahrzeuge durch den Straßenverkehr zu steuern, wenn Roboter in neuen Umgebungen allein zurechtkommen sollen, müssen sie deutlich besser werden. Und es ist nicht ausgemacht, dass dies gelingen kann, ohne dass sich die Forschung verstärkt am Menschen oder an anderen Formen natürlicher Intelligenz orientiert. Aber erst einmal von vorn. Die folgenden Abschnitte werden ein bisschen technisch, aber es ist wichtig, im Groben zu verstehen, womit wir es zu tun haben.

Weniger Mais ist ein Getreide – und die Welt ganz schön kompliziert