0,99 €
Literatur und interpretatorische Methoden haben im Zeitalter der Künstlichen Intelligenz ausgedient? Ganz im Gegenteil, betont die Literaturwissenschaftlerin Berit Glanz in ihrem Essay in Kursbuch 199. Gerade in einer virtuellen Welt wird unser Verständnis faktualer und fiktionaler, gar fiktiver, Rede ganz neu herausgefordert. In der spezifischen Intelligenz der Literatur finden wir daher einen reichen Schatz an Methoden und Navigationshilfen, die uns befähigen, in der neuen, technologiegetriebenen Gesellschaft zu überleben, ja diese verantwortungsvoll zu gestalten.
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Veröffentlichungsjahr: 2019
Inhalt
Berit GlanzSonnenaufgang im Uncanny ValleyNavigieren und überleben im KI-Zeitalter
Die Autorin
Impressum
Berit GlanzSonnenaufgang im Uncanny ValleyNavigieren und überleben im KI-Zeitalter
Sind in Zeiten rasanter Digitalisierungssprünge und zunehmender Fortschritte im Bereich der künstlichen Intelligenz die aus dem Lesen und Analysieren von Literatur gewonnenen Fähigkeiten und Erkenntnisse überhaupt noch zukunftsfähig? Müssen die Literaturwissenschaften auf die Frage nach der spezifischen Intelligenz der Literatur eine Antwort geben können und wie lässt sich diese mit der künstlichen Intelligenz verknüpfen? Die Literaturwissenschaften arbeiten seit der kulturwissenschaftlichen Wende in Teilen mit einem erweiterten Textbegriff, analysieren nicht mehr nur schriftsprachliche Äußerungen, sondern schauen mit großem Interesse auch auf Texte mit starken visuellen und auditiven Elementen, analysieren Filme, Hörbücher und Comics mit großem Gewinn. Doch der analytische Blick auf die aus technischer Entwicklung generierten Veränderungen fällt vielfach noch schwer, besonders eine kritische Auseinandersetzung mit zunehmend von Maschinen generierten Informationen, als würden die Deutungskompetenzen der Textanalyse hier versiegen. Im Gegensatz dazu denke ich, dass die spezifischen Möglichkeiten der Literatur und der literaturwissenschaftlichen Textanalyse uns gut auf die veränderten Wahrnehmungsdispositive vorbereiten können, die im Zeitalter der künstlichen Intelligenz entstehen und entstehen werden. Diese These möchte ich im Folgenden anhand von zwei literarischen Verfahren belegen: der Verfremdung und der Familiarisierung von Informationen in der Literatur. Doch zunächst müssen wir den Fokus auf die Maschinen richten.
Wenn Menschen über die Intelligenz von Maschinen nachdenken, dann werden zur Beschreibung oft menschliche Kategorien verwendet. Umgekehrt wird menschliche Intelligenz häufig daran gemessen, wie schnell abstrakte Denkprozesse durchgeführt werden, also Arbeitswege, die eigentlich der Logik von Maschinen entsprechen. In Filmen werden sehr schlaue Figuren mit fotografischem Gedächtnis oder außergewöhnlicher Merkfähigkeit ausgestattet – das menschliche Äquivalent zu einer sehr großen Festplatte –, oder sie werden als schnelle Analytiker dargestellt, bestückt mit einem hohen Arbeitsspeicher und der Fähigkeit, komplexe Prozesse rasch zu entschlüsseln. Nicht zufällig sind diese Figuren dann oft eher schwierig im sozialen Umgang, manchmal sogar isoliert, denn Maschinen haben keine Gefühle, und den Zuschauern erschließt sich die Intelligenz der Figur besonders gut, wenn sie an die Intelligenz von Maschinen angelehnt ist.
Der Entwickler und Technikphilosoph François Chollet schrieb am 9. Juli 2019 auf Twitter, eines der größten Probleme in der Arbeit mit künstlicher Intelligenz sei, dass menschliche Intelligenz anhand von mentalen Analogien beschrieben werde, die sich an den jeweiligen Stand der Technik anlehnen.1 Das bedeutet, unser Verständnis von menschlicher Intelligenz ist eng verknüpft mit den Möglichkeiten von Maschinen und wandelt sich demnach auch mit technologischen Entwicklungen und Fortschritten. Interessanterweise findet sich bereits in dem Begriff »künstliche Intelligenz« eine Anthropomorphisierung von Maschinen, deren Leistungsfähigkeit zwar künstlich ist, aber eben dennoch mit der menschlichen Wertungskategorie »Intelligenz« bezeichnet wird. Maschinelle und menschliche Intelligenz sind also alles andere als leicht voneinander abzugrenzen, auch wenn Menschen sich für die Abgrenzung brennend interessieren.
Als der IBM-Schachcomputer Deep Blue im Jahr 1996 Garri Kasparow besiegte, wurde rasch behauptet, dass die Analyse der Zugmöglichkeiten zwar mit höherer Rechenkompetenz der Maschine immer besser werden würde, der eigentliche Prüfstein für die Vergleichbarkeit der Intelligenz von Computern und Menschen aber sowieso nicht das Schachspiel sei, sondern das chinesische Strategiespiel Go. Als ob Teilnehmer eines zuvor klar definierten Wettlaufs nach dem verlorenen Rennen schnell versucht hätten, die Regeln zu ändern, um weiter auf ihrem Standpunkt, dass die Intelligenz von Maschinen der von Menschen eben unterlegen sei, beharren zu können. Es dauerte dann knapp zwei Jahrzehnte, bis das Computerprogramm AlphaGo erstmalig einen professionellen Go-Spieler schlug. Entwicklungen im Deep Learning, das auf neuronalen Netzwerken aufbaut, hatten diesen Erfolg möglich gemacht. Plötzlich sind auch Aufgaben, die zuvor für Computer schwer zu lösen waren, während sie Menschen weniger Probleme bereiteten, von den selbst lernenden neuronalen Netzwerken zu knacken.
Große Fortschritte macht diese Technologie vor allem in Bereichen der Sprach- und Bildererkennung. Besonders die Generierung künstlicher Bilder ist eng mit einer 2014 entwickelten Technik verknüpft, die sich Generative Adversarial Networks (GANs) nennt und einen Teilbereich der Entwicklungen im Feld der künstlichen Intelligenz bildet. Hierbei trainieren sich zwei unabhängig voneinander lernende neuronale Netzwerke gegenseitig, so wird die Qualität der entstehenden Daten rasch und entschieden verbessert. Man kann das Zusammenspiel der beiden Netzwerke, die Generator und Discriminator genannt werden, gut mit einem Beispiel illustrieren: Stellen wir uns ein GAN vor, das darauf trainiert werden soll, auf Bildern Früchte zu identifizieren. Der Generator versucht, Bilder mit Früchten zu generieren, die anschließend dem Discriminator gezeigt werden. Dabei werden sowohl die künstlich generierten Früchte vorgelegt als auch Bilder von echten Früchten. Der Discriminator muss anhand der Bilder erkennen, welche Früchte real und welche fake sind. So geht es hin und her, während der Generator immer besser darin wird, künstliche Früchte zu erzeugen, wird der Discriminator immer besser darin, diese künstlichen Früchte von den realen Früchten zu unterscheiden. Wichtig ist, dass dieser Lernprozess für das jeweilige GAN spezifisch ist. Das bedeutet, zwei GANs, die parallel trainiert werden, schlagen unterschiedliche Wege ein und werden nicht zu denselben Resultaten führen.
Interessant ist, dass zum Zeitpunkt der Entstehung dieses Artikels – das ist wichtig zu betonen, denn die Entwicklungen sind so rasch, dass bereits wenige Monate einen Unterschied machen können – die Anwendung von maschinellem Lernen auf die Generierung von Literatur noch nicht sehr weit fortgeschritten ist und sprachlich interessante Resultate besonders dann entstehen, wenn per GAN erzeugte Bilder automatisch klassifiziert werden.2 Auch wenn das erste von einer künstlichen Intelligenz, die von Ross Goodwin programmiert wurde, geschriebene Buch mit dem Titel 1 The Road bereits 2018 erschienen ist, so sind die literarischen Erzeugnisse, die bis jetzt generiert wurden, nicht so weit fortgeschritten oder ähnlich beeindruckend wie die von künstlichen Intelligenzen generierte Bildkunst. Diese Unterschiede hängen auch mit den verfügbaren Datensets zusammen, anhand derer die neuronalen Netzwerke trainiert werden können.