Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
In der gegenwärtigen Entwicklung der Künstlichen Intelligenz, bei der Fähigkeiten des menschlichen Denkens mehr und mehr auf Computer übertragen werden, bindet sich der Mensch immer stärker an ein sich selbst steuerndes, autonom lernendes System. Mit den damit verbundenen Utopien des Transhumanismus, das menschliche Bewusstsein an ein universal vernetztes Computerwesen anzuschließen, wird auch das Überleben des Menschen in seiner bisherigen Form infrage gestellt. Kann sich der menschliche Geist im Zeitalter der KI weiterentwickeln und zu sich selbst finden oder wird er von der Maschinenintelligenz übernommen? Anders gefragt: Kann sich der Mensch als geistiges Wesen in der Zukunft behaupten? Oder geht er in einer globalen artifiziellen Intelligenz auf? In einer umfassenden Studie setzt sich der Medienpädagoge Edwin Hübner mit den heute brennenden Fragen der Künstlichen Intelligenz und des Transhumanismus auseinander. An vielen anschaulichen Beispielen skizziert er aktuelle Tendenzen und künftige Gefahren und zeigt, dass sich uns damit auch die Frage nach dem Wesen des Menschen, nach seinem Selbstverständnis neu stellt.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 484
Veröffentlichungsjahr: 2020
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
EDWIN HÜBNER
Die Entwicklung des Humaneninmitten einer digitalen Welt
Vorwort
1. Das Ende des Menschen?
«Mach’s gut, Mensch!»
Die Maschine arbeitet neben dem Menschen
Mythen realisieren sich
Drei technische Entwicklungslinien
Kraftmaschinen lernen «gehen» / Phonographen lernen «sprechen» / Rechenmaschinen lernen «denken»
Der Aufstieg der Sphinx
Die heutige Frage der Sphinx
Die Menschheit ist in Gefahr
2. Menschliche und Künstliche Intelligenz
Was ist Intelligenz?
Turings Lösungsversuch
Qualitäten, die im Denken erfahrbar sind
Addition und Multiplikation / Der gemeinsame abstrakte Kern / Rückkoppelung
Mitte des 20. Jahrhunderts
Alte Kräfte erschöpfen sich / Neue Technologien und Forschungsgebiete / Sie wussten, was sie taten
Künstliche Intelligenzen
Neuronale Netze
Natur und Unternatur
3. Der Transhumanismus – ein Pseudomythos
Grundlegende anthropologische Annahmen
«Mein Gehirn will»? / Eine neue Metaerzählung
Trans- und Posthumanismus
Geschichtliche Aspekte / Politische Aktivitäten
Trans- und posthumanistische Zukunftsvisionen
Singularität / «Initiative 2045» / Kosmologie / Zusammenfassung der transhumanistischen Thesen
Mythen und Pseudomythen
Ursprüngliche Mythen / Zerfall der großen Erzählungen / Der Maschinenmythos
Verlust und Wiederkehr
Rezept zur Auslöschung des Menschen
4. Der Mensch
Das menschliche Denken
Das Denken ist unhintergehbar / Das Denken als Wahrnehmungsobjekt / Das Denken erfasst sich selbst / Das Denken ist jenseits von Subjekt und Objekt
Das Wahrnehmen
Das Auge als Camera obscura / Die Welt als Konstruktion / Die Wahrnehmung ist unhintergehbar
Das erkennende Wahrnehmen
Die verborgene Einheit / Die Verschränkung von Ich und Welt / Erkennendes Wahrnehmen ist eine Wesensbegegnung
Wirkendes Ich
Leib, Seele und Geist
Beziehungsebenen zur Welt / Der Leib / Die individuelle Seele
Entwicklung
Die Umgestaltung des Menschen durch sich selbst / Möglicher Verlust der Seele
Die Auferstehung als wahre Singularität
Kindheitskräfte im Menschen / Das menschliche Maß / Das singuläre Ereignis der Menschheitsentwicklung
5. Tod und Unsterblichkeit
Mythen der Unsterblichkeit
Der Tod / Alte Sagen / Wandlung des Mythos
Unsterblichkeit
Reinkarnation des menschlichen Geistes
«Seelenwanderung» – technisch realisiert / Fähigkeit, Begabung, Individualität / Reinkarnation
Inkarnation
Der Leib – erlebte Sonderheit / Der Leib – Fließform des Denkens
Vorstellendes Denken und Wollen
Gewordenes und Werdendes / Vorgeburtlichkeit und Nachtodlichkeit
Mensch und Erde
Unsterblichkeit des Toten
6. Entwicklungsstufen des Denkens
«Trillionen mal»
Entwicklung des menschheitlichen Bewusstseins
Archaisches Bewusstsein / Magisches Bewusstsein / Mythisches Bewusstsein / Der Übergang vom mythischen zum denkenden Bewusstsein / Denkendes Bewusstsein / Die Entdeckung des Ich
Vom lebendigen zum abstrakten Denken
Vom magischen Symbolismus zur symbolischen Maschine
Metamorphosen der Intelligenz – anthroposophische Aspekte
Vom wesenhaften zum abstrakten Gedanken / Vom kosmischen zum menschlichen Gedanken / Vom menschlichen Denken zum maschinellen Algorithmus
Die gegenwärtige Herausforderung
Die Entwicklung des Denkens
Imagination / Inspiration und Intuition / Mögliche Übungswege / Scheidewege
7. Das Erscheinen der modernen Sphinx: die Inkarnation Ahrimans
Luzifer
Ahriman
Vorbereitende Entwicklungsströmungen
Der Glaube an die Zahl / Konservenbüchsen der Weisheit / Zersplitterung der Menschen in Gruppen / Alleinherrschendes Wirtschaftsleben, ohne ein freies Geistes- und Rechtsleben / Ablehnung einer spirituell-geisteswissenschaftlichen Betrachtung der Welt / Einseitige, wortwörtliche Auffassung der Evangelien / Der Irrwahn der Zweizahl / Die Menschen auf bequeme Weise hellsehend machen / Intellektualistisches Denken ohne Seelenwärme
Eine mögliche Zukunft
Spirituelle Erfahrungen
Gewahrwerden des Menschheitsgeistes
Tod und Auferstehung
Ahrimanische Durchseuchung der Welt / Das ausgleichende Gegengewicht / Ferne Zukunft am Ende aller Zeiten
Anmerkungen
Literatur
Übermenschliche Wesen werden im Laufe des 21. Jahrhunderts entstehen – so jedenfalls der transhumanistische Glaube. Andere Überlegungen gehen noch weiter und prognostizieren eine zukünftige Evolution ohne den Menschen: Künstliche Intelligenzen würden sich zu göttlicher Potenz aufschwingen und den Menschen weit hinter sich lassen. In vielen Science-Fiction-Romanen und -Filmen wird dieser trans- und posthumanistische Glaube schon vorweggenommen, er ist der Hintergrund, vor dem sich die Handlungen abspielen. Beispielsweise beschreibt Al Robertson in dem Science-Fiction-Roman Dunkler Orbit eine Menschheit, die von KI-Göttern regiert wird; diese ziehen im Hintergrund des Lebens die Fäden.
Solche Gedanken sind alles andere als neu. Als 1859 Charles Darwin (1809 – 1882) sein epochales Werk Die Entstehung der Arten veröffentlichte, kam alsbald die Idee auf, dass auch Maschinen eine solche Evolution vollziehen könnten. In deren Verlauf würde der Mensch verschwinden, so wie einst die Saurier. Samuel Butler (1835 – 1902) veröffentlichte 1863 diesen Gedanken und beschrieb ihn später ausführlich in seinem sehr bekannt gewordenen Roman Erewhon.1 Rund hundert Jahre später, 1964, griff der polnische Philosoph und Schriftsteller Stanislav Lem (1921 – 2006) dieses Motiv in seinem meisterhaft erzählten Roman Der Unbesiegbare auf.2 Auch in der seit 1961 wöchentlich erscheinenden Science-Fiction-Kultserie Perry Rhodan – mit über einer Milliarde verkaufter Exemplare die erfolgreichste Heftroman-Serie der Welt – wird mit der Beschreibung der extraterrestrischen Posbis eine rein maschinelle Evolution beschrieben. Solche Beispiele ließen sich beliebig vermehren.
Der Philosoph Günther Anders (1902 – 1992) machte in seinen scharfsinnigen Analysen auf eine in der Science-Fiction-Literatur liegende Signatur aufmerksam. Er bezeichnete die Science-Fiction-Autoren als Herolde – als Boten eines Lehnsherrn –, welche die Ideen von den Reißbrettern der Ingenieure stehlen und die Menschen auf die von den Technikern gerade entwickelte Zukunft vorbereiten.3
In der Tat sind trans- und posthumanistische Gedanken die Leitideen bei vielen Forschungsprojekten. Larry Page und Sergey Brin, die beiden Gründer von Google, sahen von Anfang an ihre Suchmaschine als embryonische Form einer Künstlichen Intelligenz. Betrachtet man die Forschungsfelder, auf denen Google – jetzt Alphabet – Gelder investierte, so kann man daran leicht ablesen, dass eine transhumanistische Auffassung dahintersteht.4
Ist man davon überzeugt, dass übermenschliche Intelligenzen die Zukunft der Erdevolution bedeuten, dann zählt der Mensch nicht mehr viel. Er ist bloß ein Zwischenwesen. Schon 1990 spekulierte der Roboterforscher Hans Moravec, dass nicht viel verloren ginge, wenn der Mensch verschwinden würde. Er könne sich doch stolz schätzen, wenn die von ihm geschaffenen maschinellen Kinder, die ihn weit überflügeln würden, sich als seine Nachkommen bezeichneten.5 Vor dreißig Jahren war dies noch die skurrile Auffassung einzelner Wissenschaftler. In den letzten Jahren gewann dieser Glaube zunehmend an Verbreitung und wird heute ernsthaft diskutiert. Zudem sind Forschern auf dem Feld der Künstlichen Intelligenz entscheidende Durchbrüche gelungen. Viele Geräte verfügen heute über eine derart selbstständige Funktionalität, dass sich ihre Erbauer Sorgen zu machen beginnen, ob diese neuen Technologien noch vom Menschen beherrschbar bleiben. Ja, mehr sogar, sie fragen sich, ob die Geräte vielleicht den Menschen vernichten können. Die ernsthafte Sorge um dessen Zukunft vereint viele Wissenschaftler. «Es soll in 50 Jahren noch Menschen geben», so der gemeinsame, aus Befürchtungen heraus formulierte Wunsch von KI-Forschern auf einer internen Tagung im Frühjahr 2018.6 Die Schöpfungen drohen ihren Schöpfer zu vernichten.
Hinter all diesen Entwicklungen steht eine zentrale Frage: Wer ist der Mensch? Was ist das Wesen des Menschen? Was unterscheidet den Menschen von seinen Schöpfungen?
Gegenwärtig ist die Auffassung weit verbreitet, dass der Mensch nur ein organisches Wesen sei. Alle seelischen und geistigen Prozesse betrachtet man als bloße Epiphänomene leiblicher Vorgänge. Dass diese Sichtweise zu unlösbaren Widersprüchen führt, wird zwar von einzelnen Wissenschaftlern festgestellt, aber in ihrer Relevanz zu wenig gewürdigt, und erst recht werden keine Konsequenzen daraus gezogen. Dass sie darüber hinaus der fruchtbare Nährboden ist, auf dem transhumanistische Visionen gedeihen, wird kaum gesehen.
Anthroposophie hat – und das wohlbegründet – eine andere Sicht auf den Menschen. Sie sieht ihn als ein mit einem Leib begabtes seelisch-geistiges Wesen. Geht man von dieser Hypothese aus, die sich einem phänomenologischen Blick auf den Menschen als sinnvoll erweisen kann, so lösen sich die durch die materialistische Auffassung entstandenen Widersprüche. Darauf wird vor allen Dingen im vierten Kapitel dieses Buches eingegangen werden.
Von ihrem Standpunkt aus hat Anthroposophie einen wichtigen Beitrag zur Erkenntnis des menschlichen Wesens zu leisten. Und es ist auch die Pflicht der anthroposophischen Bewegung, sich an der Diskussion über die Zukunft des Menschen zu beteiligen, denn sie hat Wesentliches zu seinem Verständnis zu sagen – und es steht in deutlichem Kontrast zu der Vision von Google, die im Darwinschen Sinne die Evolution durch die Schaffung einer überlegenen Rasse, die den Menschen überflügeln soll, verändern will.7
Der Transhumanismus tritt zwar im Gewand der Wissenschaft auf, aber im Kern hat er eine religiöse Grundstruktur; eine Heilserwartung durchzieht seine Weltsicht. In der Schaffung übermenschlicher maschineller Intelligenzen sieht er die Lösung der gegenwärtigen menschlichen Probleme. Ja, mehr sogar: Im Transhumanismus treten, in materiell-technische Vorstellungen verwandelt, uralte religiöse Motive auf, die seit Jahrtausenden weltweit in spirituellen Strömungen verfolgt wurden. Transhumanismus ist daher nichts anderes als in technischen Begriffen formulierte Spiritualität, die zugleich alles Spirituelle verleugnet.
Dies aufzuzeigen ist im Wesentlichen das Thema der ersten drei Kapitel dieses Buches. Zunächst werden gegenwärtige Entwicklungstendenzen und ihre historischen Wurzeln beschrieben, um dann aufzuzeigen, wie sich transhumanistische Grundüberzeugungen als neuer Mythos, als neue Metaerzählung an die Stelle der untergegangenen «großen Erzählungen»8 setzen wollen.
In der Mitte dieses Buches wird der Mensch aus anthroposophischer Sicht beschrieben. Das bildet die Basis, auf der die Frage nach der Unsterblichkeit, die der Transhumanismus für den menschlichen Geist auf technischem Weg erreichen möchte, geklärt werden kann.
Dabei steht die Frage des Denkens im Zentrum. Der Transhumanismus möchte auf technisch-maschinelle Weise, also durch die Verschmelzung des menschlichen Gehirns mit Computern, eine bedeutende Erweiterung des Bewusstseins erreichen. Das bewusst geführte Denken ist auch in der anthroposophischen Sicht das Fundament, auf dem alle menschliche Entwicklung ruht. Die geduldige Vertiefung und Verstärkung der menschlichen Denkintensität durch meditative Übungen ist ein zentraler methodischer Aspekt aller anthroposophischen Bemühungen. Die Entwicklung der inneren Seelenkräfte ist das Zentrum der Anthroposophie. Aus ihr ergeben sich die Erkenntnisse über Bereiche der Welt, die jenseits der leiblichen Sinne liegen.
Zunächst sind diese Erkenntnisse im Wesentlichen nur von Rudolf Steiner beschrieben worden. Es mehren sich gegenwärtig aber die Menschen, die wenigstens die elementaren Steinerschen Beobachtungen selbstständig erfahren und erforschen können.9 Auch die Fruchtbarkeit der Steinerschen Ideen in der Lebenspraxis – vor allem in der Pädagogik, der Landwirtschaft, der Medizin, aber auch in weiteren Bereichen – weisen darauf hin, dass den im ersten Moment zuweilen merkwürdig erscheinenden Gedankengängen doch eine tiefere Realität zugrunde liegt.
Fasst man die geistigen Hintergründe, die Rudolf Steiner vor allem in seinem Spätwerk beschreibt, ins Auge, dann wird der geistige Kern des Trans- und Posthumanismus sehr deutlich. Vor allem in den letzten beiden Kapiteln dieses Buches werden die diesbezüglichen Schilderungen Steiners beschrieben. Aus ihnen geht hervor, dass in jedem Menschen, egal ob er Atheist ist oder sich einer bestimmten religiösen Glaubensrichtung zugehörig fühlt, ein höheres Menschheitswesen anwesend ist, das alle Menschen über alle Kontinente hinweg umfasst. Rudolf Steiner bezeichnete dieses Wesen gelegentlich als «Menschheitsrepräsentant», auch wenn er vielfach den Namen «Christus» gebrauchte. Er wies jedoch immer wieder darauf hin, dass in der Gegenwart die Aufgabe besteht, dieses Menschheitswesen über alle Konfessionen hinweg zu erkennen. Denn nur im erlebten Gewahrwerden des Menschheitsgeistes kann der Mensch den Gefahren, die ihm durch das Leben im Bereich der Maschinenintelligenz drohen, gewachsen sein.
Die gegenwärtigen Entwicklungen vollziehen sich rasend schnell, und sie können in ihren Konsequenzen dramatisch sein. Es kommt darauf an, sie wach wahrzunehmen und nicht zu verschlafen. Dem Versuch der aufmerksamen, bewussten Beobachtung ergeben sich dann auch die Möglichkeiten, im Alltag ausgleichende Gewichte zur Digitalisierung, mit der ja durchaus auch Chancen einhergehen, zu schaffen.
Das vorliegende Buch ist das Ergebnis jahrelangen Beobachtens und Nachdenkens. Es finden sich daher in vergangenen Veröffentlichungen des Autors einzelne Gedanken, die hier in einen Gesamtzusammenhang aufgenommen sind. In den Anmerkungen wurde auf die entsprechenden Stellen hingewiesen.
Frühling 2020
Edwin Hübner
«Die Menschheit der Erde ist deren Mittelpunkt, dasjenige, worauf es in dieser Welt ankommt.»10
Rudolf Steiner
«In dieser zukünftigen Welt wird die menschliche Art von einer Flutwelle kultureller Veränderungen fortgerissen und von der eigenen künstlichen Nachkommenschaft verdrängt werden.»11
Hans Moravec
«Im dritten Jahrtausend wird das biologische Modell Mensch auslaufen. Wer folgt nach? Oder vielmehr: was?»12
Jan Uwe Heuser
Das zweite Jahrtausend nach Christi Geburt fand mit Nachrufen auf den Menschen seinen Abschluss. Eine bekannnte deutsche Wochenzeitung beispielsweise gestaltete ihre erste Ausgabe des Jahres 1999 als «Milleniums-Sonderausgabe» und versah sie mit dem Titel «Mach’s gut, Mensch». In dem darunter abgedruckten Artikel hieß es:
«Das letzte Jahrtausend des Homo sapiens geht zu Ende. Kein Grund zur Panik. Der Mensch wird ein anderer – vernetzt und gentechnisch verwandelt, umgeben von virtuellen Welten und autonomen Robotern. ‹Gestatten›, wird irgendwann im kommenden Millenium ein neues Wesen sagen, ‹ich bin es, der Nachfolger des Homo sapiens.› […] Im dritten Jahrtausend wird das biologische Modell Mensch auslaufen. Wer folgt nach? Oder vielmehr: was? […] Zurzeit ist der Mensch im Begriff, sich mit einer interaktiven, rechnenden Maschinenwelt zu umgeben. Noch ein paar Generationen, dann werden sich die Maschinen womöglich selbst umbauen, den Weg aller Evolution gehen und schließlich eine eigene Art kollektiver Intelligenz entwickeln.»13
Ein anderer Autor schrieb 2003 im Vorwort eines Buches mit dem Titel Was ist der Mensch?:
«Heute pfeifen es aber die Spatzen von den Dächern, dass der alte anthropologische Schlaf ausgeträumt, die Zeit des Menschen abgelaufen ist, ja am Anfang des dritten Jahrtausends scheint es auch um die antiquierten Menschen selber geschehen. […] Sicher ist: ‹Der Mensch› ist heute fragwürdiger als je.»14
Einige Jahre vorher stellte der Leiter des Mobile Robot Laboratory der Carnegie Mellow University in Pittsburgh, Hans Moravec, in seinem Buch Mind Children dieselbe These auf:
«In Jahrmilliarden unermüdlichen Wettrüstens ist es unseren Genen endlich gelungen, sich selbst auszubooten. […] Was uns erwartet, ist nicht Vergessen, sondern eine Zukunft, die man aus heutiger Sicht am ehesten als ‹postbiologisch› oder auch ‹übernatürlich› bezeichnen kann. In dieser zukünftigen Welt wird die menschliche Art von einer Flutwelle kultureller Veränderungen fortgerissen und von der eigenen künstlichen Nachkommenschaft verdrängt werden. […] Heute sind unsere Maschinen noch einfache Geschöpfe, die wie alle Neugeborenen der elterlichen Pflege und Fürsorge bedürfen und kaum als ‹intelligent› zu bezeichnen sind. Doch im Laufe des nächsten Jahrhunderts werden sie zu Gebilden heranreifen, die ebenso komplex sind wie wir selbst, um schließlich über uns und alles, was wir kennen, hinauszuwachsen, sodass wir eines Tages stolz sein dürfen, wenn sie sich als unsere Nachkommen bezeichnen. […] über kurz oder lang werden sie, wie biologische Kinder, ihre eigenen Wege gehen, während wir, die Eltern, alt werden und abtreten.»15
Inzwischen ist der Chor der Stimmen, die solche Ansichten verbreiten, größer geworden. Und die technologische Entwicklung scheint ihnen recht zu geben. Ein Artikel in der ZEIT vom Ende März 2018 etwa begann mit den Sätzen:
«Bei einem Treffen in Long Beach bei Los Angeles diskutierten kürzlich Fachleute unter Ausschluss der Öffentlichkeit über die Zukunft der künstlichen Intelligenz (KI). Am Ende kam die Frage auf, auf welche minimale Forderung im Umgang mit KI sich die Anwesenden einigen könnten. Dabei schälte sich ein zentrales Anliegen heraus, das alle gleichermaßen umtrieb: Es soll in 50 Jahren noch Menschen geben.»16
Ist die Menschheit tatsächlich dem Untergang geweiht? Kommt das Ende des Menschen auf uns zu? Diese Frage taucht nicht plötzlich aus dem Nichts auf, sondern hat eine lange Geschichte. Einige historische Entwicklungslinien seien im Folgenden skizziert.
Es ist erstaunlich, wie schnell sich gegenwärtig die technologische Entwicklung vollzieht; man könnte auch sagen: Es ist gespenstisch. Ihre Geschwindigkeit hat eine Dimension angenommen, die das menschliche Maß überschreitet. Heute ist das für jeden sichtbar, die Tendenz ist aber schon seit Langem zu beobachten. Schon Ende des 18. Jahrhunderts gab es Stimmen, die die Beschleunigung des Lebens beklagten. So heißt es 1809 in einem Flugblatt in Magdeburg:
«Man sucht in der Geschichte vergeblich nach einem Gegenstück zu den Begebenheiten unserer Tage, in denen die Ereignisse so viele, von so eigener Art und in so kurzen Zwischenzeiträumen einander folgen, dass sie die Welt in Erstaunen setzen. So verschlang, wenn ich mich so ausdrücken darf, ein Heute das Gestrige.»17
Solche Stimmen hatten durchaus recht. Die Beschleunigung des Lebens im 18. Jahrhundert lässt sich beispielsweise an der Entwicklung der Fortbewegung der Menschen ablesen. Der Antrieb dazu kam aus dem Wirtschaftsleben. Die europäische Wirtschaft wuchs und stellte das Transportsystem vor immer größere Aufgaben. Die zunehmende Menge an Agrarerzeugnissen, Industrierohstoffen und Fertigprodukten musste zum Teil über weite Strecken transportiert werden. Um ihren Handel zu organisieren, waren die Unternehmer genötigt, öfters zu verreisen. So wurden, zuerst vor allem in Großbritannien, die Straßen ausgebaut und befestigt, damit die Pferdegespanne und Kutschen leichter und schneller vorankamen. Das ermöglichte eine höhere Transportleistung und eine Verdichtung des fahrplanmäßigen Linienverkehrs mit Schnellkutschen. Indem man ein dichteres Netz von Wechselstationen, eine sorgfältigere Wartung der Kutschen und eine bessere Pflege des Pferdebestandes einrichtete, konnte man die Reisegeschwindigkeit deutlich erhöhen: von durchschnittlich 6,5 km/h um 1750 auf 9,6 km/h um 1800 und zuletzt auf 12 bis 16 km/h um 1830. Die Reisezeit für die etwa 80 km lange Strecke von London nach Oxford verkürzte sich dadurch von zwei Tagen um 1750 auf 6 Stunden im Jahre 1830. Das Postkutschennetz verdreifachte sich in Großbritannien zwischen 1785 und 1835 von 3069 auf 9233 Meilen. Das Netz der Wasserstraßen vervierfachte sich auf der britischen Insel von rund 1000 Meilen im Jahre 1760 auf 4000 Meilen um 1830.18
Rund einhundert Jahre später, im November 1920, machte Rudolf Steiner (1861 – 1925) in einem Vortrag19 ebenfalls auf die große Geschwindigkeit der Veränderungen aufmerksam. Um diese Tatsache quantitativ fassbar zu machen, verglich er die von der Maschine übernommene Kraft mit der eines Pferdes, wenn es seine tägliche Arbeitszeit ein ganzes Jahr lang verrichten würde. Das waren in Deutschland 1870 – also in einem Kriegsjahr – 6,7 Millionen Pferdekraftjahre. 1912 wurde in demselben Gebiet durch die Maschinenkraft 79 Millionen Pferdekraftjahre gearbeitet. Da das Land damals auch etwa 79 Millionen Einwohner hatte, konnte man sagen, dass neben jedem Menschen in Deutschland zugleich ein Pferd ein ganzes Jahr arbeitete.20 Der Mensch liefert gewissermaßen seine eigene Tätigkeit an die Maschine aus.
«Neben ihm steht die Maschine und verrichtet die Arbeit, die er vorher selber verrichten musste. […] Ja, was liegt denn da eigentlich vor? Der Mensch hat aus seinem Denken heraus die Mechanismen konstruiert. Indem er sie konstruiert hatte, hatte er seinen Verstand, seinen aus der Naturwissenschaft heraus gewonnenen Verstand, in die Mechanismen hineingelegt. Es war gewissermaßen aus seinem Kopfe davongelaufen der Verstand und war zu den Pferdekraftjahren in seiner Umgebung geworden. Die arbeiteten jetzt, davongelaufen, selbst. Mit welch rasender Schnelligkeit dieses Schaffen einer Welt, die unmenschlich-außermenschlich ist, in den letzten Jahrzehnten durch Menschen geschehen ist, von dem macht sich ja der schlafende zivilisierte Mensch der Gegenwart nicht leicht eine Vorstellung. […] Die Menschen merken gar nicht, dass sie eigentlich zurücktreten aus der Welt und dass sie ihren Verstand der Welt einverleiben und neben sich eine Welt, die selbstständig wird, schaffen.»21
Worauf Rudolf Steiner hinwies, war damals für seine Zuhörer vermutlich nur schwer nachzuvollziehen, denn man lebte ja mit dem Gefühl, dass es zwar Maschinen gibt, die Arbeit verrichten, aber letztendlich doch der Mensch diese Maschinen lenkt und sie deshalb nicht wirklich selbstständig seien. Heute, wiederum hundert Jahre später, tritt das, was Steiner damals erläuterte, mit aller Deutlichkeit auf: Durch Künstliche Intelligenz werden die Geräte tatsächlich autonom und agieren völlig unabhängig von menschlicher Lenkung. Es entsteht tatsächlich eine technische Welt um uns herum, in der eine maschinelle Intelligenz die Dinge lenkt, ohne dass Menschen einzugreifen brauchen – ja, es nicht einmal mehr können.
Im April 2017 wurde bekannt, dass das in Hamburg ansässige Versandunternehmen Otto selbstlernende Algorithmen nutzt, die das Kaufverhalten der Kunden fortwährend analysiert und daraus die Wahrscheinlichkeiten zukünftiger Bestellungen ableitet. Diese werden vorsorglich von den Drittanbietern eingekauft und bereitgestellt. Das System erwies sich als sehr effizient, es prognostiziert mit neunzigprozentiger Sicherheit, welche Waren innerhalb der nächsten dreißig Tage bestellt werden. Mittlerweile macht das System die Einkäufe von rund 200.000 Artikeln selbst, ohne dass ein Mensch dabei mit einbezogen wird. Die Lagerbestände der Firma reduzierten sich dadurch nachhaltig, und durch die schnelle Auslieferung verringerten sich auch die Rücksendungen der Kunden deutlich.22
Eine besondere Form des automatischen Handelns ist der mit Computern an der Börse betriebene Hochfrequenzhandel; er findet vielfach völlig unabhängig vom Menschen statt. Nach zuvor programmierten Algorithmen «entscheiden» diese Geräte innerhalb von Sekundenbruchteilen, welche Aktien zu kaufen und welche zu verkaufen sind. Am 6. Mai 2010 gab es an den Börsen in den USA einen Crash – innerhalb von wenigen Minuten wurden mehr als 1,3 Milliarden Aktien gehandelt, mehr als das Sechsfache des Durchschnitts. Allerdings erholte sich der Kurs in den folgenden zwanzig Minuten wieder. Der Auslöser des Crashs war ein Aktienverkauf mit einem Volumen von 4,1 Milliarden US-Dollar gewesen, der dann bei den automatischen Handelssystemen zu entsprechenden Reaktionen geführt hatte. Das Handelsblatt schrieb rückblickend im Oktober 2010:
«Kritiker warnen schon lange, dass die automatischen Systeme außer Kontrolle geraten und Börsenabstürze auslösen können, weil niemand mehr eingreifen kann, wenn sich die Verkaufsaufträge in winzigen Zeiträumen gegenseitig hochschaukeln und am Ende ein Tsunami über die Märkte hinwegrollt. […] Die Börsianer machen sich Sorgen: Bei einer Umfrage […] unter 193 Finanzmarktexperten meinten zuletzt zwei Drittel der Befragten, dass der computergesteuerte Handel die Stabilität der Finanzmärkte bedrohe.
Der Hochgeschwindigkeitshandel wächst atemberaubend schnell. Nach Angaben der Beratungsgesellschaft Tabb Group machen die Computertrader in den USA bereits mehr als 70 Prozent des täglichen Handelsvolumens aus. Vor vier Jahren war es noch weniger als ein Drittel. An den großen europäischen Handelsplätzen sorgen die Computer inzwischen für 30 bis 50 Prozent der Aufträge.»23
Ein Trading-Experte für den Handel mit Währungen bringt es am Ende eines Gastbeitrages in einem Blog auf den Punkt:
«Beunruhigend ist es, dass der Hochgeschwindigkeitshandel im weltweiten Devisenhandel immer mehr an Einfluss und Macht gewinnt, dadurch bedingt, dass dessen Marktanteil rapide steigt: Im Jahr 2009 lag er bereits bei rund 25 %, in Fachkreisen ist zu spüren, dass es so bleibt. Der zunehmende Einfluss des Algo-Tradings auf das Forex Trading ist eine echte Bedrohung, zumal Computer und Computerprogramme mehr Entscheidungsmacht als Menschen haben.»24
Auch das Auto verändert sich. Im 20. Jahrhundert war es dasjenige Gerät, das im Zentrum der technologischen Entwicklung stand. Aber der Mensch fuhr das Auto – er lenkte. Und genau das ändert sich im Moment. Mit aller Macht wird weltweit daran gearbeitet, dass Autos selbst fahren, ohne dass sie ein Mensch steuern muss. Das Auto entwickelt sich zum autonomen Roboter, das sich unabhängig vom Menschen selbst lenkt. Es wird zu einer Art fahrendem Golem. Wovon Menschen seit Jahrhunderten immer wieder sprachen, beginnt sich zu verwirklichen.
In Sagen ist seit Jahrtausenden von künstlichen Menschen die Rede. Schon die alten Griechen sprachen davon, dass der hinkende Gott Hephaistos von goldenen Mägden bedient würde, von «Jungfrauen, goldene[n], lebenden gleich, mit jugendlich reizender Bildung».25
Der große Denker Aristoteles (384 – 322 v. Chr.) philosophierte über Werkzeuge, die ohne menschliche Hilfe ihre Arbeit verrichten können:
«Denn freilich, wenn jedes Werkzeug auf erhaltene Weisung, oder gar die Befehle im Voraus erratend, seine Verrichtung wahrnehmen könnte, […] wenn so auch das Weberschiff von selber webte und der Zitherschlägel von selber spielte, dann brauchten allerdings die Meister keine Gesellen und die Herren keine Knechte.»26
Bereits im Altertum sagte man dem einen und anderen Menschen nach, dass er einen Automaten hergestellt habe. So soll der griechische Mathematiker und Philosoph Archytas von Tarent (um 430 – 345 v. Chr.) eine künstliche fliegende Taube angefertigt haben.27 Der Mechaniker und Mathematiker Heron von Alexandria (2. Hälfte des 1. Jahrhunderts n. Chr.) baute tatsächlich automatische Theater und Musikmaschinen.28
Auch in anderen Hochkulturen finden sich Schilderungen von erfinderischen Menschen, die Statuen zum Leben erweckten und als Diener arbeiten ließen. Der Daoist Liä Dsi (um 450 v. Chr.) erzählt von einem Mechaniker namens Ning Schï, der dem König Mu vom Hause Dschou einen aus Leder, Holz, Leim, Lack, aus weißen, schwarzen, roten und blauen Teilen konstruierten künstlichen Menschen präsentiert habe.29 Von einem Handwerker der Stadt Qinzhou wird berichtet, dass er einen hölzernen Mönch baute, der mit einer Schale um Almosen bettelte.30
Mit der Erfindung der Uhr am Beginn des zweiten nachchristlichen Jahrtausends begannen die Menschen den Kosmos mithilfe der Uhr verstehen zu wollen. Der Makrokosmos wurde in ihrem Verständnis zu einem gewaltigen himmlischen Uhrwerk. Auch den Mikrokosmos Mensch versuchte man analog zu Uhrwerken oder anderen mechanischen Erfindungen zu begreifen. In der Folge sah man es als möglich an, aus Uhrwerken einen künstlichen Menschen zu bauen. Besonders klugen Persönlichkeiten sagte man nach, dass sie das auch getan hätten. Gerbert von Aurillac, der spätere Papst Silvester II. (um 950 – 1003), soll beispielsweise einen sprechenden Kopf gebaut haben, der auf Fragen richtig mit «Ja» oder «Nein» geantwortet habe.31
Der jüdische Mystiker, Dichter und Philosoph Solomon ibn Gabirol (latinisiert Avicebron, 1021 oder 1022 – 1057) wurde beschuldigt, einen hölzernen Golem in Gestalt einer Frau geschaffen zu haben. Deshalb wurde er wegen Zauberei angeklagt.32 Von Albertus Magnus (um 1200 – 1280) geht die Sage, dass er Gäste durch metallene Aufwärter habe bedienen lassen. Auch habe er einen beweglichen künstlichen Menschen geschaffen, der «Fragen beantworten und Probleme lösen» konnte.33 Der englische Theologe und Naturphilosoph Roger Bacon (um 1214 – um 1292) soll einen sprechenden Kopf angefertigt haben und René Descartes (1596 – 1650) einen Automaten namens «Francine», der ihm auf einer Seefahrt verloren gegangen sei.34 Aus der Zeit um 1470 wird überliefert, dass Regiomontanus (1436 – 1476) einen künstlichen Adler erbaut habe, der Kaiser Maximilian I. (1459 – 1519) entgegenflog, als er in Nürnberg Einzug hielt.35
Leonardo da Vinci (1452 – 1519) konzipierte um 1495 tatsächlich einen mechanischen Ritter, der seine Arme und den Kopf bewegen und den Mund öffnen und wieder schließen konnte. Ob Leonardo seinen Plan konkret ausgeführt hat, weiß man nicht.36
Im jahrhundertealten Motiv des Homunkulus zeigt sich ebenfalls die Thematik des künstlichen Menschen. Die Erschaffung eines Homunkulus fand in Goethes Faust seine bekannteste Darstellung. Die Homunkulus-Sage ist eng verwandt mit dem Motiv des Golems, das im jüdischen Sagenkreis beheimatet ist. Ab der Mitte des 16. Jahrhunderts wird von Rabbi Löw (zwischen 1512 und 1525 – 1609), der in Prag lebte, berichtet, dass er einen Menschen aus Lehm schuf und mithilfe von Zauberformeln zum Leben erweckte. Der Golem wurde an den Wochentagen als Diener verwendet, am Sabbat durfte er ruhen.37
Mit René Descartes und seiner mechanistischen Sicht auf den Menschen begann eine Epoche, die auch technisch in der Lage war, Automaten zu bauen. Man konstruierte erste Androiden, die mithilfe komplizierter Uhrwerke einfache Tätigkeiten ausführen konnten: Klavier spielen, einen kurzen Text schreiben, eine Trompete blasen.
Abb. 1: Albert Robida 1883, Le président mécanique de la république française.38
Bekannte Dichter behandelten das Motiv des Maschinenmenschen, beispielsweise Jean Paul (1763 – 1825) in seinem Text «Menschen sind Maschinen der Engel» (1785) und E. T. A. Hoffmann (1776 – 1822) in den Erzählungen «Der Sandmann» (1815) und «Die Automate» (1819).
Mit dem Beginn der Neuzeit ist die Zeit der alten Mythen vorbei; man glaubt nicht mehr an sie. An ihre Stelle treten allmählich utopische Erzählungen, Science-Fiction-Romane, die zukünftige Formen technischer Entwicklungen hypothetisch annehmen und vor diesem Hintergrund ihre jeweilige Handlung abspielen lassen. Jules Vernes Romane sind bekannte Beispiele dafür.
1883 veröffentlichte Albert Robida (1848 – 1926) sein Buch Le Vingtième Siècle. Dort wird in vielen Bildern prophetisch auf die technologischen Möglichkeiten des 20. Jahrhunderts hingewiesen: Radio, Fernsehen, Panzer, Flugzeuge usw. werden in fantasievollen Zeichnungen vorausgesagt. Eine der Zeichnungen zeigt die Installation eines Automaten als französischen Präsidenten (Abb. 1).
Ab dem 19. Jahrhundert werden in verschiedenen Schriften zunehmend die möglichen Probleme und Verwicklungen ausgelotet, die im Umgang der Menschen mit Maschinen entstehen können. Als 1859 Charles Darwin (1809 – 1882) seine epochemachende Schrift zum Evolutionsgedanken, On the Origin of Species by Means of Natural Selection, or The Preservation of Favoured Races in the Struggle for Life (Die Entstehung der Arten), veröffentlichte, folgte kurz darauf, 1863, durch Samuel Butler (1835 – 1902) der Aufsatz «Darwin among the machines».39 Dort wird der Gedanke diskutiert, dass auch Maschinen aus einfachen Anfängen heraus eine Evolution vollziehen können. In seinem Roman Erewhon führte Butler diese Idee dann sehr viel breiter aus. Erewhon stieß auf großes Interesse, erlebte mehrere Auflagen und wurde in verschiedene Sprachen übersetzt. Dadurch fand die Idee, dass Maschinen ebenfalls evolvieren könnten, bereits zu Beginn des 20. Jahrhunderts Eingang in weite Kreise der Bevölkerung.
Mit dem Theaterstück R.U.R. Rossum’s Universal Robots von Karel Čapek (1890 – 1938) wird der Gedanke Butlers auf einer nächsten Stufe weitergeführt: Von Menschen hergestellte Roboter revoltieren und rotten die Menschen aus. Am Ende des Stücks wird eine Zukunft angedeutet, in der die Roboter eine eigene Evolution beginnen.40
Zahllose Filme und Science-Fiction-Romane griffen im Laufe des 20. Jahrhunderts das Robotermotiv auf. Thea von Harbou (1888 – 1954) veröffentlichte 1925 beispielsweise den Science-Fiction-Roman Metropolis. Im Mittelpunkt der Handlung steht ein künstlicher Maschinenmensch. Dieser Roman wurde 1927 von Fritz Lang (1890 – 1976) verfilmt. Die Produktion war seinerzeit finanziell ein Flop, aber im Rückblick von hoher filmgeschichtlicher Bedeutung. Der 1968 in die Kinos gekommene Film 2001: Odyssee im Weltraum war ein weiteres filmgeschichtlich bedeutendes Werk. In diesem von Stanley Kubrick (1928 – 1999) gedrehten Streifen steht der Supercomputer HAL 9000 im Zentrum. Dieser hat die Aufgabe, das Raumschiff auf einer langen Fahrt autonom zu steuern. Im Laufe der Zeit entwickelt er jedoch ein unberechenbares und für die Astronauten tödliches Eigenleben, bis er von dem letzten Überlebenden abgeschaltet wird. Viele Roboter- und KI-Forscher bekannten sich in späteren Jahren zu diesem Film und gaben an, dass er sie tief beeindruckt und inspiriert hatte.
Besonders zu nennen ist in diesem Zusammenhang auch der Wissenschaftler und Autor Isaac Asimov (1920 – 1992), der in erster Linie durch seine zahlreichen Robotererzählungen bekannt wurde. Seine drei Grundregeln für Roboter werden noch heute ernsthaft diskutiert.41
Der Gedanke, dass sich Maschinen in einer eigenen Evolution über den Menschen hinausentwickeln, findet ab der Mitte des 20. Jahrhunderts weite Verbreitung. In dem Roman Der Unbesiegbare von Stanislav Lem (1921 – 2006) wird er sehr prägnant dargestellt.42 Über die Jahrzehnte hin wird dieses Motiv immer wieder aufgegriffen, beispielsweise in Science-Fiction- Romanen: Gigant Hirn,43Perry Rhodan,44Colossus,45Computer der Unsterblichkeit,46Hologrammatica.47 Auch in Science-Fiction-Filmen ist es leitendes Motiv, etwa in dem Kinofilm Star Trek: Der Film (1979), der in den bundesdeutschen Kinos am 27. März 1980 anlief.
Die für die Unterhaltung geschriebene Science-Fiction-Literatur geht spielerisch Gedanken nach, die allerdings gleichzeitig von Wissenschaftlern sehr ernsthaft überlegt und diskutiert werden. Der hochbegabte Mathematiker John von Neumann (1903 – 1957), der intensiv beim Bau der ersten Computer mitwirkte und ab 1943 auch am «Manhattan-Projekt», dem US-amerikanischen Forschungsprogramm zum Bau und zur Entwicklung einer Atombombe, beteiligt war, kam um 1945 zu dem ihn tief erschütternden Gedanken, dass Computer tatsächlich über den Menschen hinauswachsen würden. Seine Frau berichtete, Anfang 1945 sei er einmal außerordentlich erregt nach Hause gekommen, und im Gespräch habe er ihr gesagt: «Was wir gerade erschaffen, ist ein Ungeheuer, das den Lauf der Geschichte verändern wird, vorausgesetzt es bleibt uns noch eine Geschichte.» Man beachte: John von Neumann sprach hier nicht von der Atombombe, sondern von der zunehmenden Leistungsfähigkeit der Maschinen.48
Der Gedanke, der John von Neumann damals tief erschütterte, wird in der Gegenwart real: Autonome Geräte entziehen sich dem Zugriff der Menschen und wachsen über ihn hinaus.49 Das wird das zukünftige menschliche Leben grundlegend verändern.
Was Menschen als Möglichkeiten zukünftiger Technologien in der Fantasie ausmalten, realisierten sie gleichzeitig in ihren Erfindungen. Schaut man vom Gesichtspunkt menschlicher Grundfähigkeiten aus auf das technologische Werden, dann lassen sich drei Entwicklungslinien verfolgen, die zuletzt in einer einzigen Technologie verschmelzen: den Androiden. Der Mensch beginnt nicht nur mit seinen Mit-Menschen zusammenzuleben, sondern auch mit «Mit-Maschinen».
Die Möglichkeit, Bauteile extrem zu miniaturisieren, war eine Voraussetzung für die Konstruktion von mechanischen Robotern. Um 1980 gab es weltweit bereits Tausende von Robotern, die vor allem in der Industrie eingesetzt wurden. Japan war in dieser Hinsicht führend. Dort beschäftigte man sich auch mit der Frage, ob man Maschinen bauen könne, die sich auf zwei Beinen bewegen. An der Waseda Universität in Tokio begann man 1970 mit den Forschungsarbeiten und konnte 1973 erfolgreich einen ersten «aufrecht gehenden» Roboter präsentieren: Wabot 1 (Abb. 2).
Etwas später setzte der Autokonzern Honda diese Forschung fort. Er initiierte 1986 das «Projekt Humanoid Robot», das die Aufgabe hatte, einen zweibeinig sich fortbewegenden Androiden zu bauen. Man veranschlagte für dieses Projekt einen Zeitraum von zwanzig bis dreißig Jahren. Bereits 1993 war nach geglückten Vorversuchen der erste funktionsfähige Prototyp «P1» fertig. Er war rund 1,90 Meter hoch und 175 Kilogramm schwer – aber die Konstruktion konnte sich auf zwei Beinen vorwärtsbewegen.
Die nächste Entwicklungsstufe P2 präsentierte Honda im Dezember 1996. P2 war rund 1,80 Meter hoch und 208 Kilogramm schwer. P2 konnte nicht nur gehen, sondern bereits eine Treppe hinaufsteigen. Ein Jahr später war P3 fertig: Mit etwa 1,60 m Höhe war er kleiner als seine Vorgänger und vor allem wesentlich leichter. Er wog nur 130 Kilogramm. P3 bewegte sich tadellos, er konnte Treppen steigen, hinknien und sich wieder aufrichten. P3 war für Honda der endgültige Beweis, dass zweibeinig sich bewegende Androiden möglich sind. Vier Jahre später wurde eine verbesserte Version von P3 der Öffentlichkeit vorgestellt und auch mit einem eingängigeren Namen versehen: ASIMO (Abb. 3).51
Abb. 2: WABOT-1 (1970 – 1973), der erste aufrecht «gehende» Roboter.50
ASIMO ist die Abkürzung von «Advanced Step in Innovative Mobility», zugleich auch ein Wortspiel mit dem japanischen Wort «ashi» (Fuß) und dem englischen Wort «move» (Bewegung). Manche vermuteten auch, dass dieses Wortspiel eine Hommage an den Biochemiker und Schriftsteller Isaak Asimow gewesen sei, der ab den 1940er-Jahren viele sehr bekannt gewordene Robotererzählungen, wie etwa «I, Robot», geschrieben hat.
ASIMO kann den menschlichen Gang auf zwei Füßen verblüffend echt nachahmen. Sie steht aufrecht und kann mit eiyner Geschwindigkeit von 2,7 km/h «gehen» und über 5 km/h schnell «rennen». Die Konstruktion hält auch auf schrägem Boden das Gleichgewicht, ortet Hindernisse und reagiert entsprechend darauf. ASIMO erkennt darüber hinaus Gesichter, ordnet ihnen Namen zu und interpretiert die Gesten sowie die Körperhaltung des Gegenübers. ASIMO bleibt stehen, wenn ein bewegliches Hindernis kommt, und fragt über das Internet Informationen ab.53
Abb. 3: ASIMO, der humanoide Laufroboter von Honda.52
Nicht nur in Japan, sondern weltweit arbeitet man an humanoiden Robotern. In den USA erzielte die Firma Boston Dynamics inzwischen verblüffende Erfolge. Ihr Roboter «Atlas» geht nicht nur in unwegsamem Gelände, sondern springt auch über Hindernisse und schlägt in der Luft einen Salto oder kann auf verschachtelten Hindernissen im Laufschritt hinauflaufen.54
Roboter werden mittlerweile für viele alltägliche Bedürfnisse konstruiert: für Arbeiten im Haushalt, für die Pflege in Altenheimen, Verteilungsarbeiten in Paketzentren usw. In den nächsten Jahren werden Roboter in menschlichen Haushalten alltäglich anzutreffende Apparate sein.
Der japanische Professor Hirohisa Hirukawa, der am japanischen Forschungsvorhaben «Humanoid Robotics Project» mitarbeitete, wird vermutlich recht behalten, wenn er feststellte:
«So wie das Auto zu den bedeutendsten Erzeugnissen des 20. Jahrhunderts gehört, ist zu erwarten, dass man rückblickend feststellen wird, dass Roboter die wichtigsten Erzeugnisse des 21. Jahrhunderts waren.»55
Die Maschinen haben «gehen» gelernt. Anders gesagt: Wir Menschen haben unsere Fähigkeit des Gehenkönnens in die Maschinen hineinkopiert. So wie wir fotografische Bilder von uns herstellen, d. h. die den menschlichen Augen sich bietende äußere Erscheinung verdoppeln können, haben wir die Erscheinung unseres Gehens verdoppelt. Die gehenden Roboter sind gewissermaßen selbstständig gewordene «Fotografien» des menschlichen Ganges. Man kann es auch so formulieren:
• Bis 1973 nutzten Menschen Kraftmaschinen, um sich durch sie schneller von einem Ort zu einem anderen hinzubewegen.
• Ab 1973 «gehen» Geräte selbst zu einem anderen Ort und nehmen den Menschen mit.
Am Beispiel des Autos lässt sich das gut veranschaulichen. Große Konzerne, vor allem auch Automobilkonzerne, arbeiten seit Jahren am selbstfahrenden Auto. Man kann daher davon ausgehen, dass es in zehn bis zwanzig Jahren sehr viele Fahrzeuge geben wird, die, quasi mit eigener Intelligenz ausgestattet, die Straßen bevölkern.56 Das wird unser Verhältnis zum Automobil grundsätzlich verändern. Nicht wir fahren mehr ein Auto, sondern das Auto fährt uns. Wir Menschen sind dabei nichts anderes als Gepäckgut.
Am 18. Juli 1877 schrieb der Erfinder Thomas Alva Edison (1847 – 1931) nach einem gelungenen Experiment in sein Arbeitstagebuch:
«Es gibt keinen Zweifel, dass es mir gelingen wird, die menschliche Stimme festzuhalten und sie jederzeit wieder zu reproduzieren.»57
Was hatte Edison gemacht? Er sprach in einen Trichter hinein, an dessen Ende ein Schlauch befestigt war; der Schlauch leitete den Schall auf eine Membran, an der wiederum eine Nadel angebracht war. Diese Nadel steckte mit ihrer Spitze in einer dünnen Paraffinschicht, die auf einen Papierstreifen aufgetragen war. Edison sprach «Hallo» und zog währenddessen den Streifen langsam unter der Nadel durch. Auf der Paraffinschicht ergab sich eine dünne Furche, die von der vibrierenden Nadel erzeugt wurde. Anschließend setzte er die Nadel wieder an den Anfang dieser Furche und zog den Streifen nochmals im gleichen Tempo durch: Deutlich hörte Edison sein Wort «Hallo» wieder aus dem Trichter kommen.
Dieses Prinzip arbeitete Edison weiter aus. Am 15. Dezember 1877 reichte er dann den Patentantrag für seinen Phonographen (Abb. 4) ein. Seine Erfindung erregte großes Aufsehen. Die Redakteure der Zeitschrift Scientific American veröffentlichten mehrere Berichte über Edisons Phonographen.
Am 29. Dezember 1877 begann ein Artikel folgendermaßen (Abb. 5):
«Eine wundervolle Erfindung. – Sprache befähigt zu unbegrenzter Wiederholung von automatischen Aufnahmen.
Es heißt, dass Wissenschaft niemals sensationell ist; dass sie intellektuell und nicht emotional ist; aber man kann sich sicher kaum etwas vorstellen, das tiefere Empfindungen hervorbringt, lebhaftere menschliche Gefühle erregt, als noch einmal die vertrauten Stimmen der Toten zu hören. Nun verkündet die Wissenschaft, dass dies möglich ist und getan werden kann. Dass die Stimmen derer, die vor der Erfindung des wundervollen Apparates […] fortgegangen sind, für immer still sind, ist eine offensichtliche Wahrheit; aber wer auch immer gesprochen hat oder wer in das Mundstück des Phonographen sprechen kann und wessen Worte von ihm aufgezeichnet werden, kann sicher sein, dass seine Rede in seinem eigenen Klang hörbar reproduziert werden kann, lange nachdem er selbst zu Staub geworden ist. Diese Möglichkeit ist einfach verblüffend. Ein Streifen eingezogenes Papier geht durch eine kleine Maschine, die Geräusche der Letzteren werden verstärkt, und unsere Urenkel oder die Nachkommen späterer Jahrhunderte hören uns so deutlich, als ob wir anwesend wären. Die Sprache ist sozusagen unsterblich geworden.»59
Abb. 4: Thomas Alva Edison mit seinem Phonographen von 1878.58
Abb. 5: Artikel vom 29.12.1877 im «Scientific American» zur Erfindung des Phonographen (Quelle siehe Anm. 59).
Einer der ersten Kommentatoren zu der neuen Erfindung von Edison hebt also als besonders wichtig hervor, dass man die vertrauten Stimmen der Toten hören kann, dass die Sprache unsterblich wird. Konnte man bisher die äußere Erscheinung des Verstorbenen in der Fotografie konservieren, so ist man jetzt fähig, auch dessen Worte zu konservieren. Die Toten bleiben in Form von Fotografie und Phonographie bei den Lebenden.
Die Erfindung Edisons wird sehr bald erweitert, es kommen das Grammophon hinzu, das Telefon, das Radio, später das Tonband und zuletzt die digitale Speicherung auf CD oder DVD.
Mit der Fotografie konnte man die optischen Erscheinungen im Raum duplizieren und aufbewahren. Mit der Erfindung Edisons wird nun auch das, was sich in der Zeit abspielt, konserviert. Im Übergang vom 19. zum 20. Jahrhundert gelingt es dem Menschen, zeitliche Prozesse festzuhalten. Dazu gehört neben der Sprache vor allem auch der Film, den man damals als lebende Fotografie bezeichnete.
Bis in die 1960er-Jahre hinein benutzten die Menschen Telefon und Radio, aber auch Schallplatte und Tonband, um miteinander zu kommunizieren, entweder direkt unter Überwindung des Raumes mittels Radio und Telefon oder indirekt durch Überwindung der Zeit, indem sie das, was sie zu sagen hatten, auf Tonträgern speicherten.
Das änderte sich 1966, als der Computerwissenschaftler Joseph Weizenbaum (1923 – 2008) ein Computerprogramm entwarf, mit dem man auf Englisch eine «Unterhaltung» führen konnte. Der Mensch tippte einfach das, was er sagen wollte, auf der Tastatur eines Computerterminals ein. Weizenbaums Programm analysierte das Geschriebene und stellte auf Englisch eine Antwort zusammen, die wiederum angezeigt wurde.
Weizenbaum nannte dieses Sprachanalyseprogramm ELIZA, da man dem Programm ähnlich wie der Figur Eliza aus der Pygmalionsage beibringen konnte, immer besser zu «sprechen».60
Das Programm hatte zwei Teile: Einmal besaß es einen Sprachanalysator und dann ein Skript, d. h. eine Reihe von Regeln, die etwa denen glichen, an die ein Schauspieler gebunden ist, wenn er über ein bestimmtes Thema zu improvisieren hat. Bei seinem ersten Experiment gab Weizenbaum ELIZA ein Skript ein, das eine bestimmte psychotherapeutische Methode parodierte. Diese Methode war leicht zu imitieren, da sie weitgehend darin bestand, dass man eine Aussage echoartig zurückgab. Das einen Psychiater imitierende ELIZA-Programm wurde unter dem Namen «Doctor» landesweit bekannt.
Die Art und Weise, wie Menschen auf dieses Programm reagierten, machte Weizenbaum sehr nachdenklich, sodass er von da an zu einem der schärfsten Kritiker weit verbreiteter Ansichten über die Computertechnologie und deren mögliche Verwendungen wurde.
Das Erste, was ihn schockierte, war die Tatsache, dass eine Anzahl praktizierender Psychiater wirklich glaubte, man könne dieses Programm zu einer weitgehend automatischen Form der Psychotherapie ausbauen, durch die man nun in der Lage sei, kostengünstig Menschen zu therapieren.
Zum Zweiten stellte er bestürzt fest, dass Menschen, die sich mit dem Programm «unterhielten», außerordentlich schnell eine emotionale Beziehung zum Computer herstellten und ihm eindeutig menschliche Eigenschaften zuschrieben. Seine Sekretärin beispielsweise, die über Monate seine Arbeit verfolgt hatte und daher genau wissen musste, dass ELIZA bloß ein Computerprogramm war, bat ihn einmal nach wenigen Dialogsätzen, den Raum zu verlassen.
«Und aus langer Erfahrung wusste ich, dass die starken emotionalen Beziehungen, die bei vielen Programmierern zu ihren Computern bestehen, sich oft schon nach kurzem Kontakt zu den Maschinen herstellen. Was mir jedoch nicht klar war: dass ein extrem kurzer Kontakt mit einem relativ einfachen Computerprogramm das Denken ganz normaler Leute in eine ernst zu nehmende Wahnvorstellung verkehren konnte.»61
Und das Dritte, was ihn nachdenklich machte, war die weit verbreitete Ansicht, mit dem ELIZA-Programm sei das Problem gelöst, wie Computer eine natürliche Sprache verstehen können.
Weizenbaums Computerprogramm markiert einen Wendepunkt im Verhältnis des Menschen zur Maschine, das heute, rund fünfzig Jahre später, überhaupt erst deutlich sichtbar wird:
• Bis 1965 sprachen Menschen durch Maschinen mit anderen Menschen.
• 1965 beginnt mit ELIZA die Zeit, in der Menschen mit Maschinen sprechen, als wären sie ihresgleichen.
SIRI im iPhone, Cortana bei Windows 10 und Alexa von Amazon sind zu prominenten «Gesprächspartnern» des Menschen geworden. Was macht das mit dem Menschen?
Erste Pilotstudien untersuchten das Verhältnis des Menschen zu Sprachassistenten. Eine US-amerikanische Studie kam in ihrer Befragung, die sie im Januar 2018 veröffentlichte, zu dem Ergebnis, dass rund 20 Prozent der US-Bürger damals einen Sprachassistenten nutzten – das waren fast 50 Millionen Menschen. Diese Geräte verbreiteten sich also explosionsartig, sogar noch schneller als zwanzig Jahre zuvor das Internet. 2015 verwendete nur ein Prozent der Amerikaner ein solches Gerät. Etwa 63 Prozent derjenigen, die einen Sprachassistenten besitzen, nutzen ihn täglich und etwa 77 Prozent mindestens einmal in der Woche. Das häufigste Nutzungsmotiv ist: «eine Frage stellen», dann folgt: Musik hören, Wetterbericht und einen Wecker erstellen.62 In den USA ist vor allem der Sprachassistent von Amazon in Gebrauch.
Bezüglich Amazons «Alexa» gibt es ebenfalls eine erste Studie. Sie stellt unter anderem fest, dass Alexa eine Ur-Geborgenheit vermittelt. «Immer ist jemand da, der zuhört und mit mir spricht.» Vor allem alleinstehende Menschen haben den Eindruck, dass Alexa das Unglück der Stille vertreibt. Für andere ist sie eine Partnerin, auf die Menschen ihre Beziehungssehnsüchte projizieren. Alexa wird entweder zur Ersatzmutter oder zur Partnerin, der man alles anvertrauen kann und die immer «zuhört». Aber sie kann auch zum Berater werden, der in Modefragen berät oder Tipps für den Alltag gibt.63
Ab Mitte der 1940er-Jahre setzte mit großer Kraft die Entwicklung der Computertechnologie ein. Die Erfindung des Transistors im Jahre 1947 ermöglichte einen enormen Schub an technologischer Zuverlässigkeit und eröffnete den Weg zur Miniaturisierung der Rechner. Eine enorme Steigerung der Rechenfähigkeit der Computer war daher absehbar. Das brachte Wissenschaftler zu der Voraussage, dass zukünftige Computer zu hochintelligenten künstlichen Hirnen würden, und regte die Fantasie der Science-Fiction-Autoren an, die sich wilde Szenarien mit übermenschlich intelligenten künstlichen Gehirnen ausdachten.
Im Sommer 1956 versammelte sich unter der Führung des Informatikers John McCarthy (1927 – 2011) eine Gruppe führender Wissenschaftler, um die Möglichkeit der Konstruktion einer Künstlichen Intelligenz zu diskutieren. Die am Dartmouth College in Hanover (New Hampshire) stattfindende sechswöchige Konferenz trug den Namen «Dartmouth Summer Research Project on Artificial Intelligence». Da hier zum ersten Mal der Name «Artificial Intelligence (AI)» auftrat, gilt diese Konferenz als Gründungsversammlung des akademischen Fachgebietes «Künstliche Intelligenz (KI)».64
In den 1950er-Jahren ahnte man nichts von den riesigen Schwierigkeiten, die sich diesem Forschungsgebiet noch stellen würden. Deshalb hatten die Menschen eine an Science-Fiction-Romane erinnernde Erwartungshaltung, was Computer in naher Zukunft alles können würden. So prognostizierte 1957 der Wirtschaftswissenschaftler Herbert Simon (1916 – 2001), in den nächsten zehn Jahren würde ein Computer Schachweltmeister werden.65 1967 konnte jedoch von einer solchen Möglichkeit überhaupt nicht die Rede sein, denn die ersten Erfolge auf dem Forschungsgebiet der Künstlichen Intelligenz waren spärlich. Da die meisten Prognosen nicht eingehalten werden konnten, gingen die Fördergelder für KI-Projekte in den 1980er-Jahren deutlich zurück. Ein «KI-Winter» begann. Dennoch – es wurden auch Erfolge erzielt:
• 1979 schlug ein Computer den amtierenden Backgammon-Weltmeister.66
• 1986 gewann das Programm Maven gegen Experten in Scrabble.67
• 1994 wurde das Programm Chinook Weltmeister im Damespiel. Ab dem Jahr 2007 ist das Programm so perfekt, dass es immer gewinnt.68
• 1997 gewann der Parallelrechner «Deep Blue» von IBM ein Turnier gegen den amtierenden Schachweltmeister Gary Kasparow.69
Bei diesen kombinatorischen Spielen sind Computer deshalb so gut, weil sie die Menge der ausführbaren Spielzüge mit brutaler Rechengewalt einfach durchrechnen. Und seit 1997, als Kasparow im Schachspiel geschlagen wurde, sind die Rechner mehr als tausendmal schneller geworden. Wo man damals noch einen Großrechner brauchte, um einen Schachweltmeister zu schlagen, machen das heute kleine Maschinen.
2011 wurde eine weitere Stufe des maschinellen Könnens erreicht. Der Konzern IBM konstruierte eine Maschine, die den Namen «Watson» erhielt. Sie war in der Lage, in einem Spiel zu siegen, das man bis dahin als eine absolute Domäne des Menschen ansah: Quizspiele, bei denen es um komplizierte Fragen und Antworten geht. Bei Quizspielen muss man eine Frage verstehen, das heißt, man kann nicht einfach kombinatorische Logik anwenden, sondern es geht um die technische Erfassung von Sinn. Bei Schach oder ähnlichen Brettspielen hat man eine geschlossene Welt mit festen und übersichtlichen Regeln. Bei Quizfragen dagegen handelt es sich um eine offene Welt; es darf alles gefragt werden, und es gibt keine übersichtlichen Regeln.
So wie es in Deutschland das Quizspiel «Wer wird Millionär?» gibt, wird in den USA seit 1964 die Quizsendung «Jeopardy!» ausgestrahlt. Dabei werden Fragen der Allgemeinbildung aus allen möglichen Bereichen gestellt: Geografie, Sport, Filme, Bücher usw. Im Unterschied zu «Wer wird Millionär?» sind allerdings keine Antwortmöglichkeiten vorgegeben, die man im Multiple-Choice-Verfahren aussuchen kann, sondern die Fragen werden so formuliert, dass man «um die Ecke denken» muss und nicht sofort deutlich wird, was wirklich gefragt ist. Es gibt auch Fangfragen und Wortspiele. Die Antwort muss in Form einer Frage gegeben werden. Einige Beispiele mögen das illustrieren:
«Frage: ‹In 1899 the Senate ratified the Treaty of Paris, ending this war.›
Antwort: ‹What is the Spanish-American War?›
Frage: ‹They’re the 3 thrown objects in the Olympic decathlon.›
Antwort: ‹What are discus, shot put, and javelin?›
Frage: ‹In May 2010 5 paintings worth $125 million by Braque, Matisse & 3 others left Paris’ Museum of this art period.›
Antwort: ‹What is modern art?›»70
Abb. 6: «Jeopardy!»-Match von 2011 mit Ken Jennings (links), Brad Rutter (rechts) und dem Supercomputer Watson (Mitte). Unter die korrekte Beantwortung der letzten Frage – die schriftlich abzugeben war – ergänzte der von Watson deklassierte Champion Ken Jennings: «I for one welcome our new computer overlords.» («Ich heiße unseren neuen Computer-Herrscher willkommen.»)71
Es gibt drei Spieler, die gegeneinander spielen. Sie müssen innerhalb weniger Sekunden einen Summer betätigen, damit sie die gestellte Frage beantworten dürfen. Wer zuerst den Summer betätigt und die Frage richtig beantwortet, erhält eine Geldsumme zugesprochen. Bei Fehlern wird von den bisher erreichten Punkten eine Strafe abgezogen.
IBM fasste 2004 den Entschluss, ein System zu bauen, das die Anforderungen von «Jeopardy!» bewältigen kann. 2011 war das Entwicklerteam so weit, dass es unter dem Namen «Watson» seine neu entwickelte Technik gegen erprobte «Jeopardy!»-Kandidaten antreten lassen konnte. Sehr öffentlichkeitswirksam war der Wettstreit, bei dem Ken Jennings und Brad Rutter die Gegner waren (Abb. 6). Jennings war in 74 Quizsendungen Sieger gewesen, Brad Rutter, der andere Kandidat, hatte den bisherigen Rekordgewinn bei «Jeopardy!» erzielt und war bis dahin niemals von einem anderen Kandidaten geschlagen worden. Das waren sozusagen die beiden Meister des «Jeopardy!».
Wenn man diese Quizsendung anschaut, in der sie mit Watson um den Sieg kämpfen,72 ist man verblüfft, denn es entsteht der Eindruck, dass der Computer eine Frage «versteht» und sofort beantwortet. Aber das ist eine Illusion: Es handelt sich nur um eine gigantische Rechenleistung. Das Gerät verfügt über 2880 Prozessorkerne und 114 Terabyte, d.h. 114.000 GB Arbeitsspeicher sowie riesige Speicherkapazitäten, in denen Kopien mehrerer großer Datensammlungen, u. a. Wikipedia, abgespeichert sind.
Das Watson-System ist so aufgebaut, dass es zunächst aus der gestellten Frage eine Vielzahl von Anworthypothesen generiert. Diese werden dann in parallellaufenden Prozessen mit den gespeicherten Daten abgeglichen. Dabei wird der jeweiligen Hypothese ein Wahrscheinlichkeitswert zugewiesen. Im letzten Schritt werden die so gewichteten Hypothesen verglichen und die wahrscheinlichste ausgewählt.73
IBM ist nun dabei, diese Technologie im Alltag anzuwenden, indem sie beispielsweise mit Krebskliniken zusammenarbeitet, um Watson für die Diagnose einzusetzen. Hat also ein Arzt den Verdacht, dass ein Patient Lungenkrebs hat, so legt er per Texteingabe dem Watson-System die Befunde vor. Das System geht dann alle vorliegenden Daten durch – das sind alle Patientenakten mitsamt den bisherigen Behandlungen, Abertausende Studien, die in wissenschaftlichen Zeitschriften veröffentlicht wurden, die Datenbanken der Krankenhäuser, in denen bisherige Therapieerfolge dokumentiert sind usw. Der Arzt erhält so innerhalb kürzester Zeit eine Liste möglicher Behandlungsoptionen mit einer Wahrscheinlichkeitsangabe, welche am besten passen könnte. Das System listet zudem aktuelle medizinische Studien auf, an denen der Patient teilnehmen kann. IBM glaubt, dass sich durch den Einsatz von Watson die Krebsvorsorge und -behandlung komplett verändern wird. Es sind derzeit aber noch erhebliche Schwierigkeiten zu überwinden.74 Noch wird es einige Zeit dauern, bis dieses System wirklich im Arztalltag angekommen sein wird. Wenn es dann einmal funktionieren sollte, kann man weltweit über das Internet auf dieses System zugreifen. Das wird den Arztberuf verändern, da er von einem solchen System immer abhängiger wird.
Ein nachfolgendes Forschungsvorhaben von IBM war das «Project Debater», das im Sommer 2018 vorgestellt wurde.75 Es ist dies ein System, das mit Menschen scheinbar diskutieren kann. Die Argumentationsweise des Debater-Systems ist noch nicht richtig flüssig, aber doch in sich stimmig. Dies ist ein Zwischenergebnis, aber das Ziel ist klar:76
«Debater soll eines Tages in der Lage sein, Menschen Informationen in Form eines Plädoyers zu präsentieren, sodass er ihnen beim Entscheiden hilft. Ob die Entwicklung da stehen bleibt – unklar.»77
Nicht nur IBM, sondern alle großen IT-Firmen wetteifern miteinander, Systeme zu bauen, die Intelligenz simulieren – Systeme, die man tatsächlich als Künstliche Intelligenz (KI) bezeichnen kann. Diese werden – wenn die Entwicklung ungebrochen weitergeht – in wenigen Jahren im Alltag angekommen sein, und zwar über die ganze Welt hin ausgebreitet.
Im Januar 2014 kaufte Google – heute ist das Unternehmen eingebettet in den Mutterkonzern Alphabet – die britische Firma Deep Mind, ein Startup, wie man so schön sagt. Dieser Betrieb beschäftigt sich mit Künstlicher Intelligenz. Eine halbe Milliarde Dollar soll Google dafür bezahlt haben.78 Deep Mind konnte im Frühjahr 2016 von einem großen Erfolg berichten, den ihr Programm AlphaGo hatte. Nachdem Alpha-Go bereits im Herbst 2015 den dreifachen Europameister im Go-Spiel, Fan Hui, in fünf aufeinanderfolgenden Spielen geschlagen hatte, konnte es auch im März 2016 ein Duell mit dem koreanischen Weltklassespieler Lee Sedol gewinnen; er verlor in vier von fünf Spielen.79
Dieses Ereignis wirkt unspektakulär, denn das asiatische Brettspiel Go ist scheinbar simpel. Seine Regeln sind wesentlich einfacher als die von Schach, aber dennoch ist es für Computer ausgesprochen schwer zu berechnen.
Die Regeln von Go:
Auf einem 19 × 19 Linien großen Spielfeld werden abwechselnd von den beiden Spielern weiße und schwarze Steine auf die Kreuzungspunkte der Linien gesetzt, die dann stehen bleiben. Ziel des Spieles ist, die Steine des Gegners so zu umstellen, dass sie komplett umrandet sind. Eine Gruppe von gleichfarbigen Steinen, die von den anderen vollständig umzingelt sind, ist geschlagen. Der Spieler, der am Ende das meiste Gebiet mit seinen Steinen umschlossen hat, hat das Spiel gewonnen.
Wenn man es mit dem Schachspiel vergleichen will, dann handelt es sich nicht darum, dass zwei Kriegsherren sich gegenseitig vernichten, sondern darum, ein bis dahin noch herrenloses Gebiet unter sich aufzuteilen.80
Die klassische Kombinatorik, die mit einem Baumsuchverfahren vorgehen würde, scheitert beim Go-Spiel aufgrund der schieren Größe der Möglichkeiten, denn beim ersten Zug gibt es 361 Möglichkeiten, beim zweiten 360, beim dritten 359 usw. Da auch sehr viel mehr Spielzüge in einer Go-Partie vorhanden sind als beim Schach, wäre der Baum nicht nur breiter, sondern auch höher. Bei jedem Zug gibt es im Schnitt vielleicht 200 Möglichkeiten, und eine Partie umfasst ca. 200–250 Züge. Die Anzahl der legalen Positionen auf einem Go-Brett beträgt daher ungefähr 2,08 × 10170 – eine unvorstellbar große Zahl.81
Das Technikerteam, das AlphaGo konstruierte, nutzte auch keine gewöhnliche Computerarchitektur, sondern sogenannte neuronale Netze, die fähig sind, sich selbstständig zu verändern. Durch ein sogenanntes «bestärkendes Lernen» (reinforcement learning) verbessert sich die Maschine weitgehend allein nach dem Prinzip von Versuch und Irrtum. Das System optimiert sich aus Erfolgen und Misserfolgen und speichert die Ergebnisse. Dadurch wird die Maschine durch sich selbst immer besser.82
Deep Mind will dieses System künftig nutzen, um in Zukunft einen «positiven Einfluss auf die Gesellschaft» nehmen zu können. In Kooperation mit Ärzten des staatlichen Gesundheitssystems Großbritanniens (NHS) untersucht das Unternehmen, welche Möglichkeiten vorhanden sind, um Diagnosen treffsicherer stellen zu können.83
Im Dezember 2017 präsentierte Deep Mind der Öffentlichkeit eine Weiterentwicklung von AlphaGo: AlphaGo Zero. Diese optimierte KI erlernte innerhalb kürzester Zeit das Go-Spiel auf einem höheren Niveau als das ursprüngliche Programm. Wurde die erste Version durch Spiele trainiert, die einst Menschen gespielt hatten, so wurden AlphaGo Zero nur die Spielregeln einprogrammiert – und dann ließ man die Maschine gegen sich selbst spielen. Innerhalb von drei Tagen spielte das System knapp 5 Millionen Partien gegen sich selbst. Da es keine menschlichen Spielstrategien zum Training hatte, entwickelte es alle Spielstrategien selbstständig. Auch beim Schachspiel brachte AlphaGo Zero innerhalb kürzester Zeit eine eigene Spielstrategie hervor. Das Programm ist mittlerweile weit besser als alle bisher von Menschen entwickelten Spielsysteme; es wirkt übermenschlich.
«Als Ke Jie, der derzeitige Go-Weltmeister, im Mai gegen AlphaGo Zeros Vorgängerversion verlor, sagte er hinterher, die Software habe noch 2016 wie ein Mensch gespielt, nun aber habe sie sich in einen ‹Go-Gott› verwandelt. Aber eben einen Gott mit menschlichen Lehrmeistern. Der neue Go-Gott brauchte keine mehr.»84
Ende Januar 2017 wurde bekannt, dass in einem Casino der US-amerikanischen Stadt Pittsburgh eine Software namens «Libratus» die vier besten Pokerspieler der Welt geschlagen habe.85 Einer der beteiligten Pokerspieler berichtete:
«Es fühlte sich an, als ob ich gegen jemanden spielen würde, der betrügt, so, als ob er meine Karten sehen könnte.»
Die Entwickler programmierten die Software nicht direkt, sondern ließen das Programm sich selbst entwickeln. «Wir erklärten Libratus nicht, wie man Poker spielt. Wir statteten es mit den Regeln aus und sagten dann: ‹Bring es dir selbst bei›», so einer der Forscher. Das Programm habe dann Milliarden Spiele gespielt und dabei gewinnbringende Strategien abgeleitet.86
Ein solches Programm ist nicht auf das Pokerspiel begrenzt. Die zugrunde liegende Technik ist bei vielen anderen Anwendungen denkbar. Ein Computerwissenschaftler kommentierte dazu sorgenvoll:
«Es geht um eine Maschine, die uns im geschäftlichen und militärischen Bereich herausfordern kann. Ich mache mir Sorgen, wie die Menschheit insgesamt damit umgehen wird.»87
Und es gab noch weitere technische Erfolge, von denen hier nur einige genannt seien:
• Forscher der Universität von Chicago stellten eine Künstliche Intelligenz vor, die selbstständig Rezensionen verfassen kann, die von Menschen als informativ eingeschätzt werden.88
• Techniker der Rutgers Universität trainierten eine KI mit Gemälden berühmter Maler; jetzt ist sie in der Lage, täuschend echte «Alte Meister» zu produzieren.89
• Ein im Herbst 2017 vorgestelltes KI-System hat die Fähigkeit, Musik selbst zu komponieren, wenn man die entsprechenden Parameter wie Genre, Instrumente, Länge usw. vorgibt.90
• Google stellte Ende 2017 eine Künstliche Intelligenz namens «AutoML» vor, die untergeordnete KI-Systeme optimieren kann, das heißt, sie ist in der Lage, die vom Menschen geschaffenen KI-Systeme zu verbessern – Künstliche Intelligenzen verbessern sich also selbst.91
• Ingenieure von Google Brain stellten 2018 eine KI vor, die selbstständig Einträge für Wikipedia verfasst. Sie ist zwar zwar noch nicht perfekt, weil die KI noch nicht zwischen glaubwürdigen und unglaubwürdigen Informationen unterscheiden kann, aber man werde daran arbeiten, dieses Problem zu verbessern, so die Auskunft.92
Was sich hier in den Laboren und von da aus ins alltägliche Leben einfließend vollzog, kann man pointiert so formulieren:
• Bis zum Beginn der 1960er-Jahre benutzten Menschen Rechenmaschinen, um mit deren Hilfe etwas schneller zu berechnen, als es manuell möglich war; Das heißt: Menschen rechneten mit Maschinen.
• Mit den ersten KI-Systemen beginnt die Zeit, in der die Maschinen anfangen, unabhängig vom Menschen zu rechnen. Künstliche Intelligenzen erscheinen uns heute wie selbstständig denkende Gegenüber – und sie beginnen, den Menschen zu berechnen.
Fasst man die Entwicklung der Technik der letzten zweihundert Jahre zusammen, so sind drei große Strömungen zu beobachten (Abb. 7). Im 19. Jahrhundert werden die Prinzipien aller Kraftmaschinen erfunden, die heute den menschlichen Alltag bestimmen: Nach der Dampfmaschine folgte recht bald die Erfindung der zweiten Wärmekraftmaschine: der Stirlingmotor von 1816. Wenige Jahrzehnte später wurde der erste praxistaugliche Elektromotor konstruiert: 1834. Ein von Etienne Lenoir entwickelter Zweitaktmotor folgte 1859, bald darauf der Ottomotor (1876) und gegen Ende des Jahrhunderts der Dieselmotor (1893).
Abb. 7: Die drei großen Strömungen in der Technikentwicklung der letzten beiden Jahrhunderte.
Gegen Ende des 19. und zu Beginn des 20. Jahrhunderts wurden die Prinzipien audiovisueller Maschinen erfunden: Telefon,93 Phonograph,94 Grammophon,95 Radio,96 später auch das Magnettonband97 und dann die digitalen Aufzeichnungsmethoden.98
Ab der Mitte des 20. Jahrhunderts entstanden die Computer. Diese griffen in alle Bereiche der Technik ein. Sie begannen Kraftmaschinen zu steuern: Geräte lernten das «Gehen».
Mittlerweile sind Computerprogramme fähig, aufgezeichnete Tondateien zu manipulieren: Apparate lernten das «Sprechen».
Zuletzt wurde erreicht, dass Computer sich selbst verbessern und es nach außen hin so erscheint, als wären sie lernfähig: Computer lernten das «Denken».
In der zeitlichen Abfolge fällt auf, dass die Maschinenwelt wie ein Mensch in seiner frühen Kindheit zuerst das «Gehen», dann das «Sprechen» und zuletzt das «Denken» erlernt hat.
