Natürlich alles künstlich - Dr. Philip Häusser - E-Book

Natürlich alles künstlich E-Book

Dr. Philip Häusser

0,0
15,99 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Ist das intelligent oder kann das weg? Künstliche Intelligenz verständlich für alle erklärt! Künstliche Intelligenz bestimmt unseren Alltag schon heute. Aber wie funktioniert KI? Dr. Philip Häusser, promovierter Physiker, Start-up-Gründer und Wissenschaftsjournalist zeigt, was künstliche Intelligenz kann und was sie von "echter" Intelligenz unterscheidet. Er erklärt, wie selbstfahrende Autos Zebras von Zebrastreifen unterscheiden, was Chatbots wie ChatGPT leisten und wie sich Computer in Menschen verlieben können. - Was ist KI? Alles über maschinelles Lernen, Algorithmen und neuronale Netze. - Und was ist keine KI? Warum nicht jeder Taschenrechner mit künstlicher Intelligenz funktioniert. - Und muss man irgendwann nicht mehr selber denken? Wie Mensch und Maschine miteinander glücklich werden. - Inklusive exklusivem Nerd-Wissen für alle, die eh schon coden können.Vom Sortieren der Post über den OP-Saal bis zu Siri und Alexa, von selbstfahrenden Autos über Smartphone-Gesichtserkennung bis hin zur Corona-App: Künstliche Intelligenz bestimmt unseren Alltag schon heute. Aber was steckt eigentlich hinter diesen ganzen Techniken? Anschaulich und voller Enthusiasmus gibt der promovierte KI-Spezialist und Wissenschaftsjournalist Philip Häusser eine Einführung in die faszinierende Welt der künstlichen Intelligenz. Sein Buch ist eine facettenreiche Entdeckungsreise in die unbekannte Welt der Algorithmen und neuronalen Netze. Er zeigt, wie Maschinen schlauer werden und ob sie Emotionen haben können. Er erklärt, warum Computer oft die besseren Ärzte sind und doch manchmal falsche Entscheidungen treffen. Und er beantwortet die Frage, wie man einem Algorithmus auch Manieren beibringt. Ein Lesevergnügen für alle, die begeistert in die Zukunft blicken und die Welt von morgen schon heute verstehen wollen. Mit dem Fachwissen eines forschenden KI-Wissenschaftlers und dem Erzähltalent eines Wissenschaftsjournalisten liefert Dr. Philip Häusser die ultimative Einführung in die Wunderwelt der künstlichen Intelligenz. Und nimmt uns ein für alle Mal die Angst davor, dass die Maschinen die Macht übernehmen.

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
MOBI

Seitenzahl: 324

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Dr. Philip Häusser

Natürlich alles künstlich!

Was künstliche Intelligenz kann und was (noch) nicht - KI erklärt für alle

Knaur e-books

Über dieses Buch

Künstliche Intelligenz sortiert die Post, unterstützt Ärztinnen im OP, erkennt unsere Stimme, nimmt Termine entgegen, steuert Autos, malt Kunstwerke und entsperrt unser Smartphone per Gesichtserkennung: KI ist längst im Alltag angekommen. Aber was steckt eigentlich dahinter? Anschaulich und voller Begeisterung für die Wissenschaft gibt der promovierte KI-Spezialist und Moderator Philip Häusser eine Einführung in die faszinierende Welt der künstlichen Intelligenz – und erklärt ganz nebenbei auch, was wir über »echte« Intelligenz wissen. Denn in einer Welt, in der Algorithmen immer wichtiger werden, muss jede*r mitreden können. So zeigt er, wie neuronale Netze funktionieren, wie Maschinen schlauer werden, warum KI sei Dank Patienten besser behandelt werden können – aber auch, wo der Computer an seine Grenzen stößt. Ein intelligentes Lesevergnügen für alle, die begeistert in die Zukunft blicken und die Welt von morgen schon heute verstehen wollen.

Inhaltsübersicht

WidmungVorwortVom Sehen zum LernenDie Anfänge der KIModelle erklären die WeltKünstliche Intelligenz trainierenDaten sind die halbe MieteLernen ohne LabelsDie (Fast-)Alleskönner: Convolutional Neural NetworksWas hat meine KI gelernt? Oder: KI austricksen leicht gemacht!Kann eine KI kreativ sein?Eine Welt voller FakesAuf dem Weg zum selbstfahrenden AutoSprache – der Schlüssel zur künstlichen allgemeinen Intelligenz?Natürlich alles künstlichDankLiteraturGlossar
[home]

Für meinen Opa, der nie aufgehört hat, neugierig zu sein.

[home]

Vorwort

Meine persönliche Reise in die Welt der künstlichen Intelligenz begann 2013. Damals steckte ich mitten in meiner Masterarbeit an einer kalifornischen Universität. Ich arbeitete mit einem interdisziplinären Team von Forschern an Netzhautimplantaten. Die Vision war es, Chips zu bauen, die ins Auge implantiert werden können, um blinden Menschen wieder zum Sehen zu verhelfen. Genauer gesagt ging es um Menschen mit Makuladegeneration oder Retinitis Pigmentosa. Das sind Erkrankungen, bei denen die Fotorezeptoren in der Netzhaut nicht mehr richtig funktionieren, während der restliche Sehapparat noch intakt ist. Sollte es tatsächlich gelingen, die Funktion dieser kaputten Zellen durch einen Chip zu ersetzen, könnten Millionen Menschen weltweit vielleicht eines Tages wieder sehen.

Um diese enorm schwierige Aufgabe anzugehen, war der erste Schritt, ein Verständnis dafür zu entwickeln, wie das Auge eigentlich mit dem Gehirn kommuniziert. Wie genau wandeln die Zellen in der Netzhaut Bildinformationen so um, dass unser Sehzentrum damit etwas anfangen kann? Zu diesem Zweck untersuchten wir die neuronalen Reaktionen einer Netzhaut auf visuelle Reize. Mein Job war es, schwarz-weiße Balken und andere Muster zu programmieren, die sich auf bestimmte Art und Weise über einen Bildschirm bewegten.

Anschließend haben wir gemessen, welche Signale die Netzhaut beim Betrachten der entsprechenden Bilder produzierte. Nun galt es, die Muster in unserer neuronalen Ausgabe der Netzhaut zu analysieren und mit den Bildern abzugleichen, um so Zusammenhänge zu finden. Es war faszinierend, gemeinsam mit Medizinern, Biophysikern und Neurowissenschaftlern Schritt für Schritt zu entschlüsseln, welche Zellen in der Netzhaut wie reagieren und welche genialen Bildverarbeitungsalgorithmen die Natur selbst erfunden hat. Leider stießen wir schnell an unsere Grenzen, weil es eine große Herausforderung war, die Daten zu interpretieren. Stellt euch vor, ihr schmeißt eine Party mit fünfzig Gästen und hängt zehn Mikrofone von der Decke. Dann wollt ihr aus dem Kauderwelsch, das jedes Mikrofon aufnimmt, die einzelnen Stimmen herausfiltern. So ähnlich ging es uns mit unseren Messdaten. Wir mussten uns neue Tricks überlegen, um den Daten möglichst viele Informationen zu entlocken.

Zugegebenermaßen gegen den Rat meines Professors wagte ich mich ins Informatik-Department, um mich mit den Experten dort auszutauschen. Es sollte sich als die vielleicht beste Dickköpfigkeit meines Lebens erweisen. Denn schnell kam ich mit den Informatikern überein, dass wir mit den traditionelleren Methoden der Datenverarbeitung nicht sehr weit kommen würden. Sie erzählten mir von Algorithmen, die mir bis dahin völlig unbekannt waren. Und ich lernte eine Forschungsdisziplin kennen, die in mir ein Feuer der Begeisterung ausgelöst hat, das bis heute brennt: maschinelles Lernen [1]– ein Teilbereich der künstlichen Intelligenz (KI). Besonders angetan war ich von sogenannten künstlichen neuronalen Netzen. Die Idee, Algorithmen im Computer nicht fest einzuprogrammieren, sondern sie so zu gestalten, dass sie aus Daten lernen können, fand ich wahnsinnig faszinierend, und ich wusste sofort: Darüber willst du mehr erfahren.

Um es kurz zu machen: Nach meinem Master in Physik – für den ich leider nur wenig künstliche Intelligenz zustande brachte – bekam ich die Chance, mich auf eine Doktorandenstelle in Informatik an der TU München zu bewerben. In einem tollen Team durfte ich dann selbst erforschen, wie neuronale Netze funktionieren und wie man sie noch besser trainieren kann. Heute leite ich die Softwareentwicklung bei einer Medizintechnikfirma, wo wir mit Verfahren des maschinellen Lernens elektrische Signale aus dem Herzen analysieren, um Ärzten zu helfen, Herzrhythmusstörungen besser zu verstehen und zu behandeln. Zugegeben, das ist noch nicht alles, ich moderiere Wissenssendungen im TV und auf YouTube, um komplexe Sachverhalte zu vermitteln. Mir macht das Spaß, zu überlegen, wie sich etwas erklären lässt.

Falls du jetzt denkst, dass ich das ja alles geschickt eingefädelt habe – es waren meist Zufälle, die mir die entscheidenden Weggabelungen offenbarten. Und weil ich das alles nicht von langer Hand geplant habe, liegt mir nichts ferner, als zu behaupten, ich sei ein wandelndes Lexikon der künstlichen Intelligenz. Auf meinem Weg durfte ich viele inspirierende und ziemlich schlaue Menschen kennenlernen. Einige davon haben mir unermüdlich Fragen beantwortet und damit geholfen, dass dieses Buch entstehen konnte. Ich habe aber auch beobachtet, dass sich um das Thema KI viele Mythen und Fehlvorstellungen ranken. Daher ist es mir ein Anliegen, meine persönlichen Erkenntnisse rund um künstliche Intelligenz zu teilen.

Es gibt schon eine Menge Bücher über KI. Tutorials, philosophische Abhandlungen, dystopische Romane und Sachbücher, die verschiedene Aspekte von künstlicher Intelligenz beleuchten. Sie alle haben ihre Berechtigung. Was mir bisher gefehlt hat, war ein Buch, das ohne Formeln mehr Licht ins Dunkel bringt und erklärt, was genau denn nun künstliche Intelligenz konkret ist. Klar, ich hätte nie gedacht, dass ich das dann selbst mal schreiben würde. Aber viele Interessierte reden heute davon, welche Auswirkungen KI auf uns Menschen aktuell hat und zukünftig haben wird. Die Frage ist, wie wir uns ethisch aufstellen müssen, um mit den neuen technischen Möglichkeiten umzugehen. Oder was das für unsere Jobs bedeutet, wenn mehr KIs ins Arbeitsleben Einzug halten. Dabei wird leider auch viel auflagenstarkes Unwissen verbreitet. Wer ein bisschen tiefer einsteigen will, findet sich schnell in Programmier-Tutorials wieder: auch nicht jedermanns Sache. Ziel meines Buches ist es daher, einen tiefgründigen, aber nicht so trockenen Einstieg in das Thema KI anzubieten, der euch fit macht, sodass ihr euch eure eigene Meinung bilden und basierend auf diesem Wissensfundament aktiv mitdiskutieren könnt, statt Mysterien, Fantasien und Fiktionen hinterherzulaufen. Ich hoffe, dass euch dieses Buch stark macht und »diese ominöse KI« ein Stück weit entmystifiziert. Denn nur wenn wir Fakten von Fiktion trennen, haben wir eine Grundlage, auf der wir als Gesellschaft mündig mitdiskutieren können. Und es gibt viel zu diskutieren. KI betrifft uns alle, schon heute, in fast allen Lebensbereichen. In Zukunft wird KI eine immer größere Rolle spielen. Wer das nicht wahrhaben will, missinterpretiert möglicherweise die Zeichen der Zeit. Wer das gar ignoriert, überlässt die technologische Mündigkeit anderen. Wir alle sind ein großes Team. Wenn wir diese Technologie verstehen, die unser Leben im Sturm erobert, haben wir eine Chance, sie zu kontrollieren und bei künftigen Entwicklungen unsere Werte einzubringen.

Für alle, die nach der Lektüre dieses Buches erst recht heiß auf KI sind, habe ich ans Ende meine persönlichen Literaturhinweise gepackt. Damit das Lesen leichter fällt, haben wir auf Fußnoten verzichtet. Dafür gibt es ein Glossar mit den wichtigsten Begriffen rund um KIs zum schnellen Nachschlagen. Begriffe, die dort auftauchen, sind fett gedruckt (wie zum Beispiel hier: Gradientenabstieg).

Ich wünsche dir eine spannende Lektüre – es lebe die Wissenschaft!

 

Philip

[home]

Vom Sehen zum Lernen

Wir Menschen sind die Krone der Schöpfung, jedenfalls glauben das manche. Und wir sind anders als alles, was wir sonst auf der Erde kennen, weil wir auf unsere ganz eigene Art denken können. Was genau passiert aber in uns Menschen, wenn wir denken? Das sollten wir klären, bevor wir uns auf die Frage stürzen, wie Maschinen das von uns beigebracht bekommen können. Wir erwarten, dass Maschinen eines Tages – oder am besten sofort – automatisch aus Fotos von Gesichtern treffgenau das Alter eines Menschen schätzen. Oder dass sie auf Röntgenaufnahmen selbstständig Knochenbrüche erkennen. Am liebsten wäre es uns, sie könnten das dann auf Knopfdruck auch heilen, aber so weit geht unsere Vorstellung von den Fähigkeiten künstlicher Intelligenz gegenwärtig meist nur im Science-Fiction-Film. Was aber ist das eigentlich: der Denkprozess?

Denken ist ein ziemlich weit gefasster Begriff. Geniale Geistesblitze wie die Relativitätstheorie oder eine virtuose Klavierkomposition sind sicherlich Ergebnisse besonders herausragender Denkprozesse. Aber auch der genialste Gedanke beruht auf einer einfachen sensorischen Verarbeitungsleistung. Ja, ganz nüchtern betrachtet ist der Mensch letztendlich eine Art Signalverarbeitungsmaschine. Daher fangen wir am besten mit den Basics an.

Wir haben Inputs beziehungsweise Sensoren. Nur nennen wir sie normalerweise nicht so, sondern Augen, Ohren, Geruchs- und Geschmackssinn. Und in der Haut haben wir taktile Sensoren, die die Stärke eines Händedrucks messen können. Die Signale, die wir mit all diesen Sensoren empfangen, bewegen sich als elektrischer Impuls auf Nervenbahnen weiter durch den Körper, werden verarbeitet, verschaltet, gespeichert oder sofort wieder verworfen, kopiert, getrennt und dann zusammengefügt. Dabei muss das Gehirn nicht einmal automatisch involviert sein. Es gibt Signale, die besonders wichtig sind und eine schnelle Reaktion erfordern: Schmerz, Stolpern, unerwartete Bewegungen in unserer Umgebung.

Wenn unsere Sensoren solche Signale aufnehmen, kommen gar nicht alle im Gehirn an. Das ist gut so, denn unser Körper kann eine Entscheidung treffen, bevor die Reize zum Gehirn weitergeleitet wurden. Das ist zum Beispiel so, wenn man eine heiße Herdplatte berührt. Die Sensoren in der Haut nehmen den Reiz »Hitze« wahr. Dieser Reiz wandert über Nervenbahnen in Richtung Gehirn. Aber schon im Rückenmark lösen sie einen Schutzreflex aus, genauer gesagt im Hinterhorn. So bezeichnen wir einen Teil der grauen Masse im Rückenmark, der zuständig ist für Signale, die durch den Körper Richtung Gehirn laufen (man nennt sie: »afferente« Reize). Das Hinterhorn wandelt den sensorischen Reiz, der uns alarmiert – Achtung, Hitze! – in einen »efferenten«, also motorischen um, der sozusagen auf der »Gegenspur« gleich wieder zurück zur Hand eilt. Wie in einem Umschaltwerk bekommen die Nervenbahnen diesen gegenläufigen Impuls und schicken das Reaktionssignal vom Gehirn weg (»efferent«). Der Impuls wandert zu den Muskeln im Arm und sorgt dafür, dass der Arm zurückzuckt und wir die Hand von der Herdplatte wegbewegen. Erst einige Sekundenbruchteile später checkt das Gehirn, was gerade los ist – und das wäre zu spät, um größeren Schaden zu verhindern.

Das ist ein Beispiel dafür, wie so eine Kette von Signalen ganz ohne Beteiligung des Gehirns funktioniert. Solche Reflexe sind für uns alle überlebenswichtig, und daher sind sie uns angeboren. Schon ein Baby ist mit diesen Grundfunktionen ausgestattet, es muss sie nicht erst lernen.

Wollen wir unseren zentralen Computer – unser Gehirn – verstehen, vermitteln uns diese automatisierten Reaktionen wichtige Lernerfahrungen. Unser Nervensystem bildet Verknüpfungen: Herdplatte – heiß – Schmerz. So also lernt unser körpereigener zentraler Computer, im Zusammenspiel mit unseren Sensoren, den Nervenbahnen, Neurotransmittern und Muskeln, die komplexesten Aufgaben zu übernehmen. Besonders gelungen ist diese Art Reizweiterleitung im Bereich des Sehens. Hast du dich schon einmal gefragt, wie es eigentlich sein kann, dass wir trotz Gegenlicht und aus großer Entfernung unsere Mutter von anderen Personen unterscheiden können? Oder wie wir in Sekundenbruchteilen Automarken erkennen – zumindest manche von uns?

Um einen Computer das Denken zu lehren, bietet es sich an, erst einmal zu beobachten, wie so ein gelungener Prozess für eine Reizweiterleitung im Körper eigentlich abläuft. Und beim Sehen wird nicht nur ein Reiz brav von Zelle zu Zelle weitergegeben, sondern es läuft eine regelrechte Informationskaskade ab. Inzwischen haben wir uns das abgeguckt und gehen beim Bau von KI-Anwendungen dazu über, die körpereigene »visuelle Signalverarbeitungs-Pipeline« nachzubauen.

Die Schichten der Netzhaut: geniale Signalverarbeitung.

 

Im Grunde fängt ja auch das Sehen mit der Eingabe von Rohdaten an, in diesem Fall mit dem Licht. Licht besteht aus elektromagnetischen Wellen einer bestimmten Frequenz und Amplitude.

Trifft so eine Welle in unser Auge, passiert sie erst verschiedene optische Systeme (Iris, Linse, Glaskörper), bevor sie auf eine Art Sandwich voll gebündelter Hightech-Sensoren prallt: die Netzhaut, bei der jede Schicht eine besondere Aufgabe hat.

Die Netzhaut verfügt über Stäbchen und Zapfen, die wie Fotorezeptoren in einer Kamera als Erstes mithilfe spezialisierter Nervenzellen (Neuronen) das Licht in Signale umwandeln, mit denen der Körper etwas anfangen kann. Genau genommen haben wir das schon in der Digitalkamera übernommen, denn deren Chip rastert durch ein feines Netz von Bauteilen das einfallende Licht und wandelt es in digitale Signale um, die Helligkeit oder Farbe erfassen. Wir Menschen haben da im Grunde unsere eigene Netzhaut nachgebaut. Allerdings ist selbst die neuste Digitalkamera im Vergleich zu unserem Auge relativ plump.

Die Stäbchen und Zapfen registrieren jeweils eine Art von Lichtwellen, wandeln sie in elektrische Impulse um – und je moderner eine Kamera ist, umso mehr »Stäbchen und Zapfen« haben wir eingebaut. Denn was bei der Kamera Pixel sind, entspricht in unserem Auge grob gesagt den Stäbchen und Zapfen.

Um eine Lichtwelle in elektrische Impulse umzuwandeln, bedient sich die Natur bestimmter Moleküle, die ihre Form verändern, sobald Licht auf eine Nervenzelle (Neuron) trifft. Das löst in der Zelle zunächst eine chemische Reaktion aus, die dann eine Spannung erzeugt. Ist die Spannung groß genug (also der Reiz ausreichend stark), lösen die Neuronen ein sogenanntes Aktionspotenzial aus. Genau wie ein Staudamm nur dann überfließt, wenn ein bestimmter Wasserstand erreicht ist, leitet die Zelle den elektrischen Impuls in dem Moment weiter, wenn die durch das Licht erzeugte Energiemenge dazu ausreicht.

Eigentlich sonnenklar: Ein Rezeptor – im Falle des Auges Stäbchen oder Zapfen – reagiert chemisch auf die Lichtwelle und erzeugt eine gewisse Spannung. Und sobald ein Schwellwert überschritten ist, pflanzt sich dieses elektrische Signal fort. Oder anders gesagt: Eine Lichtwelle wandelt sich durch eine chemische Reaktion in einen elektrischen Reiz um. Unbemerkt bleibt das nicht, denn die Neuronen warten gleichsam darauf, dass mal wieder ein Aktionspotenzial ausgelöst wird. Die Grafik zeigt das sehr schön, wie die Neuronen durch ihre Eingänge oder Fühler Input bekommen. Und da auch Biologen gerne Fachvokabular benutzen, haben sie diese Fühler umbenannt in Dendriten. Jedes Neuron hat eine ganze Reihe solcher Dendriten.

Über die Dendriten empfängt ein Neuron seinen Input. Kommt genug an, leitet es einen Impuls weiter zu den Synapsen.

 

Das Neuron »feuert«, indem es seinerseits ein Aktionspotenzial auslöst und über das Axon weiterleitet. Da steckt natürlich Achse drin, und man kann sich diese Hauptverkehrsachse bildlich vorstellen, diesen Fortsatz namens Axon, durch den Nervenimpulse über ganz unterschiedliche Distanzen transportiert werden können, von wenigen Mikrometern bis zu immerhin rund einem Meter.

Auch das längste Axon hat einmal ein Ende: Wo ein Neuron mit dem anderen kommuniziert, befindet sich jeweils eine der berühmten Synapsen – wer rühmt sich nicht seiner guten Verschaltung im Hirn mit Hinweis auf die Synapsen? Dort bewirkt der weitergeleitete elektrische Reiz, dass ein Botenstoff ausgeschüttet wird. Ein chemischer Prozess wandelt den Impuls jetzt in einen Botenstoff um. Und der Botenstoff heißt auf Fachdeutsch Neurotransmitter.

Wer die Funktionsweise von Neuronen versteht, kann sich tatsächlich auch eher etwas unter »künstlichen neuronalen Netzen« vorstellen, um die es später noch ausführlich gehen wird. Es lohnt sich also ein zweiter Blick aufs Auge und die Netzhaut. Denn das Signal ist ja bei der Synapse hängen geblieben – unser Gehirn hat es noch lange nicht erreicht.

So ein Signal wird nicht einfach direkt an das Gehirn weitergeleitet, um es über Lichteinfall, Farbe oder Stärke zu informieren. Nein, die Natur hat sich einen smarten nächsten Schritt ausgedacht. Und der Effekt ist eindrucksvoll. Da muss nur einmal eine Spinne über den Boden rennen, schon haben wir reagiert. Ähnlich wie bei der Hand auf der Herdplatte zucken wir zusammen, noch ehe uns das Gehirn die erlösende Botschaft schickt: »Ist doch nur ein ungefährlicher Weberknecht!«

Noch in der Netzhaut werden die Signale gefiltert, komprimiert und aufs Wesentliche reduziert. Auffällige (kontrastreiche) Signale werden blitzschnell herausgerechnet und mit größerer Priorität weitergeschickt.

Eine weiße Wand bietet wenig Kontraste. Hier wäre es total ineffizient, die Information von jedem einzelnen Stäbchen und Zapfen direkt an das Gehirn weiterzuleiten. Was für eine Energieverschwendung über lange Nervenbahnen und von Synapse zu Synapse immer wieder den Impuls »Weiß«, »Weiß«, »Weiß« ans Gehirn zu schicken. Das brächte ja keinen Erkenntnisgewinn. Wenn aber auf der weißen Wand ein einziger schwarzer Fleck ist, dann ist dort an dieser Stelle der Kontrast hoch. Diese Anomalie könnte wichtig sein, von dort könnte eine Gefahr drohen. Es lohnt sich auf jeden Fall, das Gehirn darüber zu informieren – so hat es die Natur bewertet: Wer Gefahren erkennt, der lebt länger – und pflanzt sich kontrastreich fort.

Bei uns im Auge übernehmen diese wichtige arterhaltende Funktion eben die verschiedenen spezialisierten Zellen in der Netzhaut, die so verschaltet sind, dass sie den einen wichtigen Impuls weiterleiten: »Achtung, schwarzer Fleck.« Und der Rest der Wand wird mit nur wenigen Signalen enkodiert. Die beruhigende Botschaft »Weiß – von hier bis auch noch hier« kostet nur einen Bruchteil der Energie. Verglichen mit manchen Digitalkameras, die im Rohformat jedem Bildpunkt gleich viel Speicherplatz einräumen, arbeitet das Auge effizienter. Im menschlichen Körper werden möglichst wenig Ressourcen für redundante, uninteressante Informationen verschwendet. Eine wichtige Lehre – auch für jeden, der eine künstliche Intelligenz bauen will.

Ein Blick ins Auge ist also ausgesprochen lehrreich, weshalb wir gleich noch einmal hinschauen. Die Spinne ist der schwarze Fleck, aber der huscht ja schnell weiter. Wie gut, dass es neben den Zapfen und Stäbchen und Horizontalzellen auch noch die Bipolarzellen gibt. Denn sie reagieren auf zeitliche Änderungen der Lichtreize mit erhöhter Empfindlichkeit. Ist der Fleck auf der Wand ein Nagel, der festsitzt, ist das zwar interessant, aber noch nicht potenziell gefährlich.

Bewegt die kontrastreiche Stelle sich dagegen, könnte es sich um ein Insekt handeln, dem der Betrachter vielleicht Aufmerksamkeit schenken sollte. Die Bipolarzelle sendet sofort Nachrichtenimpulse ans Gehirn. Aber halt, da fehlt doch noch eine Information: In welche Richtung ist denn der schwarze Fleck unterwegs? Kommt uns die Spinne etwa zu nah? Der Output der Bipolarzellen wird verschaltet: Amakrinzellen bündeln die Informationen und leiten wichtige Richtungsinformationen ans Hirn weiter.

Der direkte Draht ins Hirn ist dann noch einmal energiesparender: Die Netzhaut verpackt allen wichtigen Input in einem Code, den schließlich die Ganglienzellen über den Sehnerv ins Gehirn schicken. Siehst du, wie die Netzhaut hier schon richtiggehend »mitdenkt« und wesentliche Informationen aus der Flut von Licht-Daten herausfiltert? Das spart Energie und Verarbeitungszeit – ein evolutionärer Vorteil.

Kleiner Exkurs für alle Fans von Netflix & Co: Mit einem ähnlichen Prinzip werden heutzutage Videostreams effizient enkodiert. Statt 30 Bilder pro Sekunde à 4096 x 2160 Pixel zu übertragen, können Algorithmen ganze Bildfolgen so komprimieren, dass sie nur die Änderungen zwischen aufeinanderfolgenden Bildern übertragen müssen. Bei Übertragungsfehlern kann man das manchmal beobachten, weil dann die Ränder von bewegten Personen oder Gegenständen verpixelt erscheinen, während der unbewegte Hintergrund scharf bleibt. Oder es kommen nur die Änderungen zwischen den Einzelbildern an, und der Hintergrund erscheint grau. Erst der nächste »Keyframe« überträgt dann wieder alle Pixel, und das Bild ist gleichmäßig scharf.

Der Sehnerv ist unser neuronaler Bilddaten-Highway. Über ihn wird der komprimierte Stream von Daten aus der Netzhaut direkt ans Gehirn gemeldet. Dort verarbeitet zunächst der Thalamus die Daten, er ist unser »Tor zum Bewusstsein« und steuert, welchen Eingangssignalen das Hirn Vorrang einräumt. Was für wichtig befunden wird, dem widmen wir unsere volle Aufmerksamkeit. Aber auch im Thalamus gibt es Verschaltungen, und es wird nach Dringlichkeit sortiert. Zusätzlich strömen Impulse auch aus anderen Hirnarealen dort zusammen. Sie geben Informationen, in welcher Verfassung wir uns gerade befinden. Das ist wichtig, um zu entscheiden, was Priorität erhält. Ein Schrei kann in einer vollen Bar total belanglos sein –, aber nachts im Park ist er möglicherweise ein Notsignal.

Die Signale wandern weiter in den primären visuellen Kortex im hinteren Teil des Gehirns, der für die Verarbeitung von Seheindrücken zuständig ist. Die verschiedenen Daten werden weiter gefiltert. Reize von benachbarten Stellen auf der Netzhaut landen hier zum Teil in benachbarten Zellen. Gleichzeitig sorgen verschiedene Abzweigungen der Nervenbahnen dafür, dass Reize, die die beiden Augen liefern, abgeglichen werden und so komplexe Strukturen erkannt werden.

Das alles sieht man ja nicht von außen, deshalb schauen Wissenschaftler mithilfe von bildgebenden Verfahren dem Gehirn bei der Arbeit zu. Um genauer herauszukriegen, was die Schichten des visuellen Kortex denn nun eigentlich tun, helfen Untersuchungen unter Magnetresonanztomographie (fMRT), die zeigen, welche Hirnareale gerade aktiv sind.

Wenn ein Proband während einer Untersuchung verschiedene Bilder gezeigt bekommt, sieht man, welche Neuronen im Hirn gleichzeitig feuern. Aus den verschiedenen Bildern lässt sich eine Art Landkarte des Gehirns erstellen. Durch geschickte Bildauswahl kann man dann Rückschlüsse ziehen, was für ein Seheindruck genau welches Hirnareal aktiviert: alte und junge Menschen, streitende Menschen, süße Katzenbabys, Schlangen in Angriffspose und so weiter. Die Forscher haben die Bilder vorher genau katalogisiert und die Auswahl so verfeinert, dass sie durch geschickte Kombinationen und per Ausschlussverfahren ziemlich genau beschreiben konnten, welche Gemeinsamkeiten Bilder haben, die ein scharf abgegrenztes Hirnareal aktivieren.

So konnten sie beispielsweise zeigen, dass das Gehirn den Datenstrom aus den Augen erst nach Richtungen im Raum (»hoch«, »runter« etc.) filtert. Welche Ecken und Kanten sieht das Auge? Wie sind die harten Linien orientiert?

Auch Farben spielen früh eine Rolle. Und je weiter das Gehirn dann die Signale verarbeitet, desto spezialisierter werden die Hirnareale. Es gibt dabei einen »Was«-Strang, der vor allem für die Erkennung von Objekten oder Gesichtern zuständig ist, und einen »Wo«-Strang, der bei der Bewegungserkennung und Orientierung hilft. Wird sich all dies auf die Arbeit mit KI übertragen lassen? Je mehr die Grundlagenforschung uns über das Gehirn verrät, umso eher werden wir es nachbilden können.

Wir erkennen: Unser Gehirn macht die Daten immer abstrakter. Von so etwas wie »rohen Pixeln« zu einfachsten Bausteinen (Ecken, Kanten, Farben) über Muster und Formen bis hin zu abstrakten Konzepten wie »Mensch«, »Freude« oder »gehen« werden die Daten gecheckt.

Tatsächlich haben Wissenschaftler von der Uni Leicester vor einigen Jahren vermeldet, das »Jennifer-Aniston-Neuron« identifiziert zu haben: ein Neuron, das speziell auf Bilder der Schauspielerin Jennifer Aniston reagiert. Die Forscher haben diesen Zusammenhang erkannt, als sie acht Epilepsiepatienten untersuchten, denen sie aus medizinischen Gründen Elektroden ins Hirn gepflanzt hatten. Jennifer Aniston war nur eine von vielen Personen oder Gegenständen, die die Forscher den Patienten zeigten. Und zu ihrem Erstaunen erwies sich, dass das Gehirn unterschiedlichste Bilder von derselben Person immer wieder mit den gleichen Neuronen darstellt. Dabei ist besonders interessant, dass diese Neuronen nicht eins zu eins nur für das Gesicht stehen, sondern auch mit dem gesamten semantischen Kontext assoziiert sind. Im Falle von Jennifer Aniston also etwa mit dem Gedanken an die Serie »Friends«.

Die Abbildung zeigt, dass besondere Gesichter, zum Beispiel das der Mutter, oft eine bestimmte Stelle im Gehirn »aktivieren«.

Verschiedene Bilder von Personen, die uns wichtig sind, aktivieren dieselbe Stelle im Gehirn.

 

Diese Verknüpfung ist natürlich nicht angeboren. Woher sollte ein Baby auch Jennifer Aniston kennen? Dabei muss es sich um eine erlernte Verbindung handeln – und das spielt sich genauso ab, wie wir im Frühkindstadium das Gesicht unserer Mutter erkennen und entsprechend an einem ganz bestimmten Platz im Gehirn abspeichern. Das Konzept, komplexe Eingabedaten (»Pixel«, bzw. das semantische Konzept dahinter) höchst effizient im Gehirn durch Vernetzung abzubilden, ist nicht nur ein enormer evolutionärer Vorteil, sondern auch die Kernidee hinter vielen KI-Modellen im Computer.

Aber was bedeutet »lernen« eigentlich? Was passiert in unserem Gehirn, wenn wir zum Beispiel Vokabeln lernen? Und hier denke ich gerade nicht an die oft unkreative Karteikarten-Lernerei, sondern an den Moment, wenn du im Frühling auf einer Parkbank in Paris sitzt, die Sonne scheint dir auf die Jeans, ein Schmetterling landet auf deinem Knie, du hältst gespannt den Atem an und hörst ein Kind neben dir voller Glück sagen: »Un papillon!« Wie könnte man danach jemals das Wort »papillon« für Schmetterling vergessen?

Lernen, das sind im Ergebnis Verknüpfungen im Gehirn, doch sie sind nicht eins zu eins austauschbar: Das Gehirn schafft Assoziationen durch die Verbindung der verschiedensten Eingangssignale wie Bilder, Geräusche oder Gefühle, und das Ganze funktioniert noch besser, wenn es getrieben ist von Emotionen. Lernen kann daher auch ein Effekt sein, wenn unsere Erwartungen sich plötzlich nicht erfüllen: Wenn wir glauben, dass man auf Glatteis gut rennen kann, wir also loslaufen und schmerzvoll ausrutschen. Der Lerneffekt wird im Hirn vermerkt: Glatteis hat Eigenschaften, die zum Rennen nicht geeignet sind.

Diese Beispiele stehen für eher zufälliges Lernen. Der Mensch ist nun aber faszinierenderweise auch in der Lage, gezielt zu lernen. Lernpsychologen unterscheiden etwa das Lernen mit dem Ziel, Wissen zu erwerben (hier wären wir jetzt bei den Karteikarten) oder wir lernen, um Fähigkeiten und Fertigkeiten automatisiert zu beherrschen (etwa Autofahren).

Ob wir alt sind oder jung: Lernen ist enorm vielfältig und komplex. Versucht man, den kleinsten gemeinsamen Nenner zu finden, landet man wieder bei den Neuronen. Sie bilden die Grundlage dafür, wie wir Informationen verarbeiten, speichern und assoziieren. Man spricht in diesem Zusammenhang vom sogenannten Hebb’schen Lernen. Dahinter steckt die Idee: »Cells that fire together, wire together« oder »Zellen, die gemeinsam feuern, sind miteinander verbunden«. Wiederholt man etwas regelmäßig, so wird dieser Verbindungsdraht zwischen den Zellen, wie man sich das bildlich vorstellt, immer dicker. Wissenschaftlich haltbar ist: Werden verschiedene Neuronen gleichzeitig aktiviert, wachsen zwischen ihnen Verbindungen. So können wir verschiedene Eindrücke miteinander assoziieren.

Die Forscher, die das Jennifer-Aniston-Neuron entdeckten, verfeinerten ihr Experiment weiter. In einem neuen Versuch kombinierten sie Personen mit Orten, etwa Jennifer Aniston und den Eiffelturm. Als der Proband später nur den Eiffelturm zu Gesicht bekam, konnte man auf den fMRT-Bildern nachweisen, dass auch das Jennifer-Aniston-Neuron aktiviert war. Eine Assoziation war nachgewiesen, und das nach nur einem einzigen »Trainingsbeispiel«. Natürlich ist die betreffende Assoziation noch schwach, aber geht man von der Hebb’schen Regel aus, ist das ja nur eine Frage der Zeit: Je öfter beide Neuronen gleichzeitig aktiviert werden, umso eher müsste die Assoziation ausgelöst werden. Es können sich so regelrechte Nervenautobahnen im Gehirn bilden.

Das Gleiche passiert etwa, wenn wir eine Rose sehen und an ihr riechen. Dabei assoziieren wir ganz unterschiedliche Arten von Sinneseindrücken miteinander und speichern sie unter einem Konzept ab: Rose. Doch eine Verbindung oder Assoziation kann sich auch wieder zurückbilden, wenn sie nicht gebraucht wird – von der Autobahn zum Trampelpfad, bis wir sie schließlich vergessen.

Den Vorgang, dass sich unser Gehirn umbauen kann, bezeichnet man als Neuroplastizität. Während du gerade diesen Text liest, baut sich dein Gehirn um. Selbst, wenn du alles, was hier steht, schon wusstest. Unsere hundert Milliarden Neuronen im Gehirn optimieren ständig ihre Verbindungen und passen sich an unsere Umgebung an. Egal, was wir gerade machen. Ob Ballerspiel oder Geigenunterricht.

Besonders viel tut sich natürlich im Gehirn von Babys und kleinen Kindern. Sie haben schon eine Menge Veranlagungen, müssen aber noch einiges lernen: Laufen, Sprechen, Schuhe binden. Manchmal sieht man kleine Kinder mit Augenklappe. Wer dann denkt: Oh, das arme Kind, da stimmt wohl was nicht mit dem abgeklebten Auge, dem sei gesagt: Das ist das gesunde Auge! Denn wenn bei Babys ein Auge unterentwickelt ist und immer nur unscharfe Bilder liefert, lernt der visuelle Kortex, dass die Signale von diesem Auge nicht so gut zu gebrauchen sind wie jene des anderen. Also werden die Nervenbahnen vom gesunden Auge stärker und die vom kranken schwächer. Unternimmt man nichts, kann das Kind auf dem schlechteren Auge völlig erblinden. Deckt man aber das gesunde Auge ab, wird das Gehirn gezwungen, die Nervenbahnen vom schlechteren Auge zu festigen (Seheindrücke hängen also nicht mehr am seidenen Faden) und damit zu retten.

Die Fähigkeit, Assoziationen zu bilden, ist ein wesentlicher Bestandteil unseres Lernvermögens. Assoziationen können aber nicht nur zwischen verschiedenen Arten von Eingangssignalen bestehen, so wie bei dem Beispiel mit der Rose: Haptik, Farbe und Geruch. Wir können Bilder mit Gefühlen assoziieren, unsere Emotionen mit einbinden. Du erinnerst dich an den Schmetterling? Vielleicht ist beim Lesen des obigen Abschnitts ja auch dein Dopaminspiegel ein bisschen angestiegen. Das Glückshormon Dopamin kann die Bildung neuer Nervenverbindungen begünstigen. Eine geniale Erfindung der Natur! Wenn wir neue Erfahrungen machen, egal ob positiv oder negativ, werden Botenstoffe ausgeschüttet, die die entsprechenden Assoziationen stärken. Sonst würden wir hundertmal auf Glatteis ausrutschen. Gleichermaßen sorgt die Freude beim Erlernen eines Instruments dafür, dass sich mit jeder Wiederholung genau wie mit jeder neuen Melodie die Nervenbahnen festigen und wir immer besser werden. Das heißt: Gefühle können steuern, wie wir lernen.

Hast du dich schon einmal gefragt, was auf neuronaler Ebene passiert, wenn ein Baby laufen lernt? Trial and error. Aufstehen, hinfallen. Autsch. Das Gehirn versteht: Diese Abfolge von Bewegungen verursacht Schmerz. Nicht gut. Nicht noch mal machen. Wenn der erste Schritt geschafft ist, erzeugt diese neue Erfahrung, dieses Erfolgserlebnis einen kleinen Rausch von Glückshormonen (ja, lernen kann süchtig machen!). Die neuronalen Muster, die zu dieser Bewegungsabfolge geführt haben, werden verstärkt. Dieses Muster kann man wieder und wieder beobachten. Und es läuft nach demselben Schema, egal ob beim Laufen, Sprechen, Musizieren oder beim Leistungssport. Immer sind es Feedback-Zyklen, die das Belohnungssystem aktivieren, wenn wir etwas geschafft haben, oder entsprechend negative Feedback-Ketten, die uns hindern, eine nicht zielführende Verbindung im Gehirn zu festigen. Wie lässt sich eine KI belohnen? Können KIs überrascht werden? Emotionale Bindung aufbauen? All diesen Fragen werden wir nachgehen.

Sicherlich hast du schon einmal von »Belohnungsexperimenten« gehört, bei denen Mäuse lernen, auf einen Schalter zu drücken, damit ihnen Futter spendiert wird. Man nennt das Konditionierung. Das gezielte Belohnen von gewünschtem Verhalten ist ein Trick, mit dem man Hunde trainieren oder Smartphone-Nutzer süchtig machen kann. Bei Babys kommt die Konditionierung automatisch, von selbst, durch die eigene Neugier. Glückshormone werden ausgeschüttet, wenn es fühlt, schmeckt, sich bewegt und neue Eindrücke gewinnt. Das Ausprobieren und Erkunden ohne externe Aufforderung ist ein genialer Mechanismus der Evolution, um unser Gehirn mit Input zu versorgen. Wenn ein Kind unbewusst eine Vorhersage macht (»das Spielzeugauto kann fliegen«) und dann enttäuscht wird von einer Beobachtung in seinem Experiment (»das Spielzeugauto fällt runter und geht kaputt«), dann lernt es die fundamentalen Gesetze unserer Welt (hier: Schwerkraft – und: Holzspielzeug geht nicht so schnell kaputt).

So werden Verbindungen im Gehirn verknüpft, Automatismen bilden sich heraus. Es muss für ein Baby unendlich schwer erscheinen, einen Fuß vor den anderen zu setzen, ohne umzufallen. Aber ist es einmal gelernt, sind die Nervenmuster einmal gefestigt, kann sich das Gehirn auf neue Herausforderungen konzentrieren (und das Baby kann die Treppe in Angriff nehmen).

Besonders erstaunlich am Gehirn ist, dass wir rein theoretisch (und zum Glück auch meist praktisch) unser ganzes Leben lang lernen können. Im Gegensatz zu einem Computer kann im Gehirn der Speicher nicht voll werden oder überlaufen. Im Gegenteil: Je mehr wir schon können oder wissen, desto mehr bekommen wir in unser Gehirn. Klingt paradox? Keineswegs. Es gibt Menschen, die zig Sprachen beherrschen und sich neue in kürzester Zeit aneignen können. Denn durch die Assoziationen und die Neuroplastizität muss nicht für jede neue Vokabel eine neue Nervenbahn wachsen. Wenn ich schon viel in meinem »Wissensnetz« habe, kann ich Neues leichter einfangen und buchstäblich »vernetzen«, denn es gibt mehr Bekanntes, das zu Assoziationen einlädt.

Der Mensch scheint hier eine besondere Fähigkeit zu haben, Wissen regelrecht aufzusaugen. Schließlich lernen auch Tiere, aber nur wir beherrschen Fremdsprachen. Forscher wie Richard Wrangham gehen davon aus, dass der Mensch sich einen evolutionären Vorteil verschafft hat, auf den andere Lebewesen nicht so einfach zurückgreifen können: die Erfindung des Kochens. Gekochte Nahrung versorgt uns mit hochwertiger Energie, Nahrungsaufnahme wird effizienter. Karina Fonseca-Azevedo und Suzana Herculano-Houze von der Universidade Federal do Rio de Janeiro haben ausgerechnet, dass wir täglich neun Stunden damit beschäftigt wären, Nahrung zu suchen und aufzunehmen, wenn wir unser heutiges Gehirn basierend auf der Rohkostdiät eines Menschenaffen versorgen wollten. Denn allein die etwa 100 Milliarden Nervenzellen in unserem Gehirn brauchen etwa 300 bis 500 Kilokalorien pro Tag!

Nur durch den Trick mit dem Kochen konnten wir ein Gehirn entwickeln, das mehr Neuronen und Synapsen hat als fast alle anderen bekannten Lebensformen. Natürlich war das auch ein Stück weit Zufall. Die Evolution ist ein ständiger Anpassungsvorgang. »Survival of the fittest«, schloss Charles Darwin – wer sich am besten anpasst, überlebt. Und eins verrate ich dir: Intelligenz macht es leichter, sich anzupassen.

Und diese »Anpassung« (Englisch: »fitting«, woraus die Fitness entstand, aber auch das Überleben des Angepasstesten – und eben nicht des in Sachen Fitness Erfolgreichsten) ist ein wesentliches Element bei der Konstruktion künstlicher Intelligenz, die heutzutage Schachweltmeister in den Schatten stellt oder Drohnen selbstständig durch Wälder fliegt.

[home]

Die Anfänge der KI

Die Geschichte der KI reicht weit zurück – hier eine kurze Zusammenfassung: Die Voraussetzung künstlicher Intelligenz ist menschlich: Viele der modernen Entwicklungen sind nur deshalb entstanden, weil kreative Köpfe vor langer Zeit verrückte Ideen hatten und entweder die klugen Geister selbst oder andere Talentierte ihre Einfälle später tatsächlich umgesetzt haben.

Ich fange hier relativ einfach an und steige ein bisschen tiefer ins Detail ein, wenn es um das erste künstliche neuronale Netz geht. Aber ich versuche, den eher mathematischen Teil so intuitiv wie möglich zu halten – versprochen. Ich glaube, es lohnt sich, zumindest eine grobe Vorstellung davon zu entwickeln, wie die neurobiologischen Konzepte aus dem ersten Kapitel im Computer aussehen können. Denn wenn man das erst einmal verstanden hat, kann man einordnen, was die Möglichkeiten, aber auch die Schwierigkeiten von künstlicher Intelligenz jetzt und in der Zukunft sind.

Die Idee, der Mensch könne etwas erschaffen, was eine Form von Intelligenz darstellt, ist schon ziemlich alt. Bereits in der Antike rankten sich Mythen um so etwas wie intelligente Roboter. Ein Beispiel ist Talos, ein Riese aus Bronze, der mittels einer Art Blutsystem funktioniert und dank seiner künstlichen Kraft die griechische Insel Kreta beschützen sollte. Die Grenzen zum Fantastischen und zur Zauberei verschwimmen hier. Auch bei den vielen anderen Erzählungen von Wesen, Orakeln oder Robotern, die es sonst noch gibt, fiel die Beschreibung, wie das wohl technisch umzusetzen wäre, gleich ganz unter den Tisch. In »De natura rerum« hat Paracelsus 1538 erläutert, wie sich wohl ein »Homunculus« herstellen ließe, ein menschenähnliches Wesen. Dieses sei – vereinfacht gesagt – durch Ausbrüten von Sperma in Pferdemist zu züchten. Auch wenn das heutzutage völlig abstrus klingt, ist es doch faszinierend, wie die Menschen schon immer versucht haben, mit den ihnen bekannten technologischen Mitteln etwas zu schaffen, das so ähnlich ist wie der Mensch selbst.

Der Arzt und Philosoph Julien Offray de La Mettrie hat 1748 die Perspektive umgedreht und in seinem Essay »L’Homme Machine« postuliert, der Mensch sei eine Maschine – damals, im Zeitalter der Aufklärung, war das eine Provokation. Organische Vorgänge, so de La Mettrie, seien letztendlich das Getriebe, das uns Menschen bewegt, und Krankheiten nichts als Störungen unserer Maschine. Was man damals (womöglich mehr aus kirchlich-politischen Gründen) für einen Affront hielt, hat in seinen Grundzügen erstaunlich viele Ähnlichkeiten mit dem, was heutige Neurowissenschaften über unseren Körper und Geist herausfinden. Der Ansatz, etwas »künstlich Intelligentes« zu schaffen, indem man sich durch die Funktionsweise des Menschen inspirieren lässt, ist letztendlich gar nicht so abwegig.

Aber kommen wir von den visionären alten Schriften zu ersten Schritten auf dem Weg zur Erschaffung von künstlicher Intelligenz. Auf die Frage, was genau eigentlich (künstliche) Intelligenz ist, werde ich dann später genauer eingehen. Hier geht es ja erst einmal darum, einzuordnen, »was bisher geschah«.

Stellt man sich vor, der antike Bronze-Riese Talos mit seinem Blutsystem hätte sich damals bauen lassen, so fehlte es ihm immer noch an einer Steuerung – einer Einheit, welche die Eingangssignale aufnehmen, verarbeiten und in Ausgangssignale umwandeln könnte. Mit einer rein mechanischen Verschaltung ist das, zugegeben, schwierig. Daher überrascht es nicht, dass es eine Art »Medium« gebraucht hat, mit dem man – und jetzt geht es in die Neuzeit – mehr oder weniger intelligente Vorschriften beschreiben, speichern und ausführen kann. Gemeint ist natürlich: der Computer.

Alan Turing wurde im 20. Jahrhundert zu einem der Stars in der Entwicklungsgeschichte der künstlichen Intelligenz. Der britische Mathematiker und Informatiker war vielleicht der erste Hacker der Welt. So war er beispielsweise maßgeblich an der Entzifferung der Enigma beteiligt, jener Verschlüsselungs-Schreibmaschine, die die Deutschen im Zweiten Weltkrieg verwendeten, um geheime Nachrichten zu übertragen. Der Enigma-Hersteller hatte damit geworben, dass die maschinell verschlüsselten Texte aufgrund der schier unendlichen Kombinationsmöglichkeiten niemals von Hand decodiert werden könnten. Womit er nicht gerechnet hatte: dass jemand eine Maschine bauen könnte, um den Code zu knacken. Doch Alan Turing entwickelte mathematische Methoden, die er dann in Dechiffrier-Automaten umsetzte.

Mit nur 24 Jahren schrieb Turing den Aufsatz »Über berechenbare Zahlen«, ein Meilenstein auf dem Weg zum Computer. Er formulierte die Idee einer universellen Maschine, mit der man alles berechnen könne. Die Maschine sollte ein unendlich langes Band haben und darauf Symbole schreiben, lesen oder verändern können: die Turingmaschine. Heute wissen wir: Die Turingmaschine ist der abstrakte Prototyp des modernen universellen Computers. Tatsächlich erdacht wurde sie 1936.

Dazu passte ganz gut, dass in den 1930er-Jahren immer mehr Maschinen erfunden wurden, mit denen Turing & Co. diese Vision in der Praxis ausprobieren konnten: Lochkartenmaschinen, programmierbare mechanische Rechner und Relais-basierte Apparate.

Auch wenn diese Gerätschaften nach heutigen Maßstäben unfassbar langsam waren (eine Multiplikation dauerte eine ganze Sekunde!), legten sie den Grundstein für alles, was wir heutzutage mit dem Wort »Computer« bezeichnen. Insbesondere die theoretischen Arbeiten Turings halfen dabei zu erkennen, welche Rechnerarchitektur sinnvoll ist. Gemeint ist: Wie universell einsetzbar ist ein Rechner? Kann er »nur« die Grundrechenarten ausführen? Oder hat er ausreichend viele Funktionen, um jeden beliebigen Algorithmus abzuarbeiten?

Hier bitte einen Schritt zurück, ich möchte erst eine wichtige Frage klären: Was ist ein Algorithmus? Die schlichte Antwort: Ein Algorithmus ist eine Art Rezept. Wie beim Kochen. Oder Backen.

Definiere Inputs: Mehl, Wasser, Hefe.

Definiere eine Abfolge von Schritten mit Regeln: mischen, umrühren, backen, wenn braun: fertig.

Definiere Outputs: Brot (in diesem Fall vermutlich ziemlich fade).

Im Computer geht das mit Symbolen als Zutaten oder Inputs: Zahlen, Buchstaben, oder Operatoren wie »mal« oder »plus« und noch ein paar andere. Algorithmen sind die Bausteine all unserer Computerprogramme. Auch die komplizierteste Software ist aus solchen Bausteinen zusammengesetzt.

Dank Turing gab es eine sinnvolle Rechnerarchitektur und in der Folge erste sogenannte Computer, die die Kriterien Turings erfüllten und sich dazu eigneten, zumindest theoretisch eine unbegrenzte Anzahl von Aufgaben zu lösen. Allerdings brauchten sie damals noch eine ziemlich lange Zeit dafür.

Der erste Schritt also war getan auf dem Weg zur KI. Dann schrieb Turing 1950 eine entscheidende Arbeit mit dem Namen »Computing Machinery and Intelligence«. Und schon ging es direkt um Rechenmaschinen und künstliche Intelligenz. In diesem unter dem deutschen Titel »Können Maschinen denken?« erschienenen Aufsatz widmete sich Turing, ja, genau, der Frage, inwiefern Maschinen denken können. Weil das eine ziemlich schwammige Frage ist (was heißt schon »denken«?), hat Turing darin gemacht, was er am besten konnte: Er hat ein komplexes Problem so umformuliert, dass er es mit den Regeln der Logik auseinandernehmen konnte. Turings Trick war es, das Problem folgendermaßen zu beschreiben: Statt direkt zu fragen, ob eine Maschine denken kann, untersuchte er, ob eine Maschine das »Imitations-Spiel« gewinnen kann.

Turing-Test: Kann ein Mensch (C) feststellen, ob er mit einem Menschen (B) oder einer Maschine (A) interagiert?