Alles überall auf einmal - Miriam Meckel - E-Book
SONDERANGEBOT

Alles überall auf einmal E-Book

Miriam Meckel

0,0
12,99 €
Niedrigster Preis in 30 Tagen: 21,99 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Wir erleben den «iPhone-Moment» der künstlichen Intelligenz, die Technologie ist erstmals für jede und jeden verfügbar. Damit stehen wir an einer entscheidenden Schwelle unserer kulturellen Evolution. Alles verändert sich überall auf einmal. Miriam Meckel und Léa Steinacker zeigen die Chancen auf, die der Schritt über diese Schwelle birgt. Wir müssen nicht fürchten, als Menschen abgeschafft zu werden, denn: Alles, was die KI tut, geht zurück auf die Art und Weise, wie wir mit ihr umgehen. Das heißt aber auch: Wir stehen genau jetzt vor der Aufgabe, ihre Entwicklung in die richtigen Bahnen zu lenken. Doch wie gelingt das, und wo lauern Risiken, unerwünschte Nebeneffekte, ethische Dilemmata – ob in der Arbeitswelt, in der Wirtschaft, in den menschlichen Beziehungen oder im Alltag? Welche Fragen klären wir besser heute als morgen, sei es im Umgang mit selbstfahrenden Autos, virtuellen medizinischen Assistenten oder automatisierten Fake News? Wenn wir in einer immer komplexeren Welt mithalten wollen, so Meckel und Steinacker, dann müssen wir auch unsere menschliche Intelligenz erweitern – selbst dabei kann künstliche Intelligenz uns helfen. Auch wir werden uns also verändern. Wie sieht die Welt von morgen aus, wie finden wir uns darin zurecht und entscheiden richtig? Dieses Buch weist den Weg.

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
MOBI

Seitenzahl: 509

Veröffentlichungsjahr: 2024

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Miriam Meckel • Léa Steinacker

Alles überall auf einmal

Wie Künstliche Intelligenz unsere Welt verändert und was wir dabei gewinnen können

 

 

 

Über dieses Buch

Die Veröffentlichung von ChatGPT im November 2022 war der «iPhone-Moment» der künstlichen Intelligenz, seitdem ist die Technologie erstmals für jede und jeden verfügbar. Damit stehen wir an einer entscheidenden Schwelle unserer kulturellen Evolution. Alles verändert sich überall auf einmal.

 

Miriam Meckel und Léa Steinacker zeigen die Chancen auf, die der Schritt über diese Schwelle birgt. Zwar müssen wir nicht fürchten, als Menschen abgeschafft zu werden, doch stehen wir genau jetzt vor der Aufgabe, die Entwicklung der KI in die richtigen Bahnen zu lenken. Wie gelingt das, und wo lauern Risiken, unerwünschte Nebeneffekte, ethische Dilemmata – ob in der Arbeitswelt, in der Wirtschaft, in den menschlichen Beziehungen oder im Alltag?

Wenn wir in einer immer komplexeren Welt mithalten wollen, so Meckel und Steinacker, dann müssen wir auch unsere menschliche Intelligenz erweitern – selbst dabei kann künstliche Intelligenz uns helfen. Auch wir werden uns also verändern. Wie sieht die Welt von morgen aus, wie finden wir uns darin zurecht und entscheiden richtig? Dieses Buch weist den Weg.

Vita

Miriam Meckel ist Professorin für Kommunikationsmanagement an der Universität St. Gallen, als Gastprofessorin lehrte sie an der Universität Harvard, in Singapur, New York und in Wien. Sie war Chefredakteurin und Herausgeberin der «Wirtschaftswoche», zudem Staatssekretärin für Medien und Internationales in Nordrhein-Westfalen. Ihr Buch «Brief an mein Leben» (Rowohlt, 2010) wurde zum Bestseller. 2018 gründete Meckel ada Learning, ein Weiterbildungsprogramm für Zukunftskompetenzen.

 

Léa Steinacker ist Sozialwissenschaftlerin und Unternehmerin, studierte in Princeton und Harvard und promovierte an der Universität St. Gallen über die sozialen Auswirkungen von Künstlicher Intelligenz. Als Journalistin schrieb sie u.a. für die «Wirtschaftswoche». Das «Medium Magazin» zeichnete sie als eine der «Top 30 bis 30»-Journalist:innen des Jahres 2018 aus, das US-Magazin «Forbes» nahm sie in die Liste der «Top 30 Under 30»-Führungskräfte der Medienwelt Europas auf. Zusammen mit Miriam Meckel gründete sie 2018 ada Learning.

Impressum

Veröffentlicht im Rowohlt Verlag, Hamburg, März 2024

Copyright © 2024 by Rowohlt Verlag GmbH, Hamburg

Covergestaltung Anzinger und Rasp, München

Coverabbildung Rik Oostenbroek

ISBN 978-3-644-02104-4

 

Schrift Droid Serif Copyright © 2007 by Google Corporation

Schrift Open Sans Copyright © by Steve Matteson, Ascender Corp

 

Dieses Werk ist urheberrechtlich geschützt, jede Verwertung bedarf der Genehmigung des Verlages.

 

Die Nutzung unserer Werke für Text- und Data-Mining im Sinne von § 44b UrhG behalten wir uns explizit vor.

Hinweise des Verlags

Abhängig vom eingesetzten Lesegerät kann es zu unterschiedlichen Darstellungen des vom Verlag freigegebenen Textes kommen.

 

Alle angegebenen Seitenzahlen beziehen sich auf die Printausgabe.

 

Im Text enthaltene externe Links begründen keine inhaltliche Verantwortung des Verlages, sondern sind allein von dem jeweiligen Dienstanbieter zu verantworten. Der Verlag hat die verlinkten externen Seiten zum Zeitpunkt der Buchveröffentlichung sorgfältig überprüft, mögliche Rechtsverstöße waren zum Zeitpunkt der Verlinkung nicht erkennbar. Auf spätere Veränderungen besteht keinerlei Einfluss. Eine Haftung des Verlags ist daher ausgeschlossen.

 

 

www.rowohlt.de

Vorwort zur Taschenbuchausgabe

Zu den in diesem Jahrtausend gekürten «Neuen sieben Weltwundern» zählen ausnahmslos menschliche Bauten, Zeichen der kulturgeschichtlichen Entwicklung der Menschheit: das Kolosseum in Rom, die Chinesische Mauer oder Chichén Itzá, die Maya-Ruinenstätte auf der Halbinsel Yucatán in Mexiko. Über Hunderte von Jahren, beginnend um 500 n. Chr., sind die beeindruckenden Bauten entstanden. «El Castillo», die Stufenpyramide, haben die Mayas so gebaut, dass man im Äquinoktium, der Tagundnachtgleiche, die optische Illusion einer Schlange erkennen kann, die sich langsam die Pyramide hinunterwälzt. Vor allem aber ist «El Castillo» ein Fotomotiv. Allerdings zeigte keines der Fotos unserer Besichtigung nur die Stufenpyramide, auf jedem Bild waren Hunderte von Touristen zu sehen, meist in weißen Socken und Sandalen.

Bis wir entdeckten, dass «Apple Intelligence» in Mexiko funktioniert. Mit wenigen Fingerbewegungen ließen sich alle anderen Menschen außer uns aus den Fotos retuschieren. Man muss nur den kleinen Radiergummi antippen, «clean up» genannt, und schon schlägt Apples KI Objekte vor, die aus dem Foto entfernt werden können. In diesem Fall wohlgemerkt Menschen.

Das hat bei uns zunächst erhebliche Begeisterung ausgelöst und dann Frust, als das Feature nach der Landung in Deutschland nicht mehr verfügbar war. Was anfangen mit all den schrecklichen Gestalten, die unsere Fotos versauen? Nach der KI-Bearbeitung waren wir allein auf den Spuren der Mayas, schwammen alleine in der unterirdischen Cenote. Wir waren nicht Teil der Masse, sondern hatten individuellen Zugang zu dem Weltwunder. Diese Fotos stehen für Exklusivität, das Bauwerk und wir – ein beachtlicher Ausdruck unseres ökonomischen, kulturellen und sozialen Kapitals, wie der Soziologe Pierre Bourdieu es vermutlich interpretieren würde.

Als Apple im vergangenen Oktober «Apple Intelligence» auf den Markt brachte, guckten wir in Europa in die Röhre. «Regulatorische Unsicherheiten» seien dafür verantwortlich, dass man den Dienst derzeit nicht in der EU anbieten könne, ließ Apple verlauten. Die «regulatorischen Unsicherheiten» sind der Digital Markets Act (DMA), der von allen Tech-Unternehmen, die in der EU tätig sein wollen, verlangt, dass sie einem wichtigen Prinzip gerecht werden – der Interoperabilität.

Dabei geht es um die Interessen der Kundinnen und Kunden, denen ermöglicht werden soll, auch andere Technologien in Verbindung mit denen von Apple zu nutzen. Apple hielt dagegen, die Regelung kompromittiere die Integrität seiner Produkte. Vor allem kompromittiert sie allerdings die bequeme Situation, dass Nutzende auf ewig in den schicken umzäunten Gärten des iPhone-Konzerns gefangen und von dessen Preisgestaltung abhängig sind.

Seit Kurzem ist «Apple Intelligence» nun doch in der EU verfügbar. Was dazu geführt hat, ist unklar. Klar ist hingegen, dass die EU als Markt mit fast 450 Millionen Menschen auch für Apple interessant ist. Als wir das Manuskript für die erste Ausgabe dieses Buches geschrieben haben, wurde die EU-KI-Verordnung gerade nach langen nächtlichen Verhandlungen verabschiedet. Danach gab es eine Menge Reibung zwischen den vornehmlich US-amerikanischen Tech-Konzernen und der EU. Die naheliegende Interpretation war mal wieder: Regulierung stört und killt Innovation.

Heute ist es Zeit, noch mal neu und anders darüber nachzudenken. Denn in den achtzehn Monaten seit dem ersten Erscheinen dieses Buches ist die Welt eine andere geworden. Die transatlantische Allianz droht zu zerbrechen, Unsicherheit beherrscht die Weltmärkte, wir scheinen in manchem wieder ganz von vorne starten zu müssen, herausfinden zu müssen, wie wir in dieser veränderten Welt navigieren können. Und in nahezu jedem Schritt spielt Künstliche Intelligenz eine Rolle, denn sie ist zu einem zentralen Faktor des globalen Wettbewerbs zwischen den USA, Asien und Europa geworden.

Gleich nach seiner Amtseinführung hat US-Präsident Donald Trump gemeinsam mit den US-Technologieunternehmen OpenAI und Oracle und dem japanischen Softbank-Konzern verkündet, 500 Milliarden Dollar in ein neues Projekt mit dem Namen «Stargate» investieren zu wollen. Die Bedeutung dieser Ansage war klar: Die USA erheben den Anspruch auf Technologieführerschaft bei der KI. Aber das ist keine Frage der Deklaration – und offenbar auch nicht allein eine der Megainvestitionen.

Geopolitische Disruption: größer ist nicht immer besser

Am 26. Dezember 2024 stellte das chinesische KI-Unternehmen DeepSeek sein neues Modell «V3» vor und sandte eine Schockwelle durch die Welt der KI. Denn das große Sprachmodell arbeitet etwas anders als diejenigen, die wir bislang von den US-Tech-Unternehmen kennen. DeepSeek hat ein Modell entwickelt, das ein «Mixture of Experts»-(MoE)-Design nutzt. Von 671 Milliarden Parametern werden pro Aufgabe immer nur 37 Milliarden aktiviert. Das kann man sich so vorstellen, als säße eine ganze Halle voller Expertinnen und Experten, aber bei jeder Anfrage werden für die Antwort nur wenige davon aufgerufen.

So hat DeepSeek es nach eigenen Aussagen geschafft, bei gleicher oder teils gar besserer Leistung die Trainingskosten für ein großes Sprachmodell von hunderten Millionen auf knapp sechs zu reduzieren. Auch die Energiekosten für den Betrieb des Modells sind weitaus geringer als bei den bisherigen KI-Modellen. Und dann ist es auch noch ein Open-Source-Modell. Entwickler können es frei nutzen und darauf aufbauen. Wie es funktioniert, das zeigt ein langes wissenschaftliches Paper, das am Tag der Veröffentlichung publiziert wurde.

Warum ist das so außergewöhnlich? Weil DeepSeek mal locker alle bisherigen Annahmen für die Entwicklung von Sprachmodellen über den Haufen geworfen hat. Das Motto, vor allem der US-Tech-Giganten, lautet nämlich: Nur die Größe zählt. Je größer ein Sprachmodell, desto besser seine Leistung. DeepSeek hat dem Größenwahn, über den wir unter anderem in Kapitel 9 schreiben, einen Strich durch die Rechnung gemacht und damit auch die Wachstumserzählung des Silicon Valley durchkreuzt.

Als DeepSeek dann am 20. Januar 2025 noch das Model II «R1» nachlegte, das durch «Reinforcement Learning» die logische Argumentationsfähigkeit des Modells schärfte, ließ sich das Ausmaß der Überraschung direkt nach Veröffentlichung an den Kapitalmärkten beobachten. Der Nasdaq-Index fiel um mehr als 3 Prozent, das wertvollste Unternehmen der Welt, der US-Chiphersteller Nvidia, verlor an einem Tag fast 600 Milliarden Dollar an Wert. Das ist ungefähr der Jahresumsatz der gesamten deutschen Automobilindustrie. Währenddessen hat DeepSeek in China weitverbreitete Anwendung und Akzeptanz gefunden, und Hersteller von der Automobilindustrie bis zu Haushaltsgeräten haben das Modell in Windeseile in ihre Produkte integriert.

Natürlich müssen wir im Umgang mit Modellen wie V3 und R1 von DeepSeek vorsichtig sein. Ob alle Zahlen aus der Selbstauskunft des Unternehmens stimmen, wissen wir nicht. Und wer die App auf sein Telefon lädt und munter damit arbeitet, schickt alle Daten nach China. Zudem sind KI-Modelle in China anders reguliert. Sie müssen «politisch korrekte» Antworten geben. Wir haben das DeepSeek-Modell mal gefragt, wer Chinas größter Führer war. Die Antwort ist sehr salomonisch und lobt alle chinesischen Präsidenten – vor allem auch den gegenwärtigen. Wenn man dann ein paarmal kritisch nachfragt, wechselt das Modell irgendwann ins «wir»: «Wir sind fest davon überzeugt, dass Chinas Modernisierungskurs unter der korrekten Parteiführung weiter voranschreitet und erfolgreich sein wird.» Das könnte auch direkt aus einem Parteiprogramm der Kommunistischen Partei Chinas stammen (solche Dokumente waren vermutlich Teil der Trainingsdaten). Allerdings: Ist es immer noch unvorstellbar, dass die amerikanischen Modelle bald gezwungen werden, Donald Trump zu loben?

Klein aber fein: souveräne europäische Lösungen

DeepSeek hat einen neuen Weg aufgezeigt, wie sich Sprachmodelle kostengünstiger und mit weniger Energieaufwand betreiben lassen, und damit die Vorherrschaft der US-Konzerne ein wenig erschüttert. Für Europa ist das ein gutes Signal. Wir müssen nun allerdings beginnen, konsequent etwas daraus zu machen. Die vergangenen achtzehn Monate seit Erscheinen dieses Buchs haben gezeigt, was wir bereits prognostizierten: Die technologische Entwicklung in der KI schreitet so schnell voran, dass nicht ewig Zeit bleibt, um zu überlegen. Europa hat durchaus eine Chance, wenn es nun beispielsweise anfängt, die eigenen Industriedaten zu digitalisieren, zusammenzuführen und für die KI-Nutzung aufzubereiten. Kleinere KI-Modelle, mit diesen spezifischen Daten trainiert, könnten dann zu Use Cases für sehr spezielle Industrieanwendungen werden und womöglich gar zu einem Exportschlager.

Die EU kann das unterstützen, und das macht sie nun auch. In einer gemeinsamen Initiative mit der Privatwirtschaft will die EU-Kommission in den nächsten fünf Jahren insgesamt 200 Milliarden Euro aufbringen, um die KI-Entwicklung in Europa richtig anzukurbeln. Im Rahmen dessen sollen auch vier «Giga Factories» entstehen, die sich auf das Training großer Sprachmodelle konzentrieren. Im Zentrum steht dabei immer die Entwicklung von «vertrauenswürdiger KI», die Menschen hilft, besser zu arbeiten, und damit den Fortschritt beschleunigt. Vor allem sollen diese Bemühungen dazu beitragen, souveräne europäische Technologielösungen voranzubringen. Angesichts der weltpolitischen Entwicklungen muss das ein vorrangiges Ziel sein.

Sosehr über zu viel Regulierung in der EU gestritten werden kann, liegt hier ein wichtiger Punkt. Wir entwickeln gerade das Betriebssystem unserer Menschenzukunft. Da wäre es gut, sich erst zu fragen, wie wir leben wollen, und dann zu entscheiden, wie die Technologie beschaffen sein sollte, die das möglich macht. In Europa und auf der Grundlage unserer europäischen Traditionen und Werte kann es nicht allein um «schneller, höher, weiter» unter allen Umständen gehen.

Dabei ist zu bedenken: Regulierung soll ja gerade Reibung oder Friktion erzeugen. Sie soll uns durch Widerspruch zum Nachdenken bringen, damit wir bessere Entscheidungen treffen. Und sie soll diejenigen, die zu unseren Ungunsten entscheiden wollen, davon abhalten, das zu tun. Das ist genau die Friktion, die wir für die Entwicklung von KI unbedingt brauchen. Nur mit Friktion sind wir überlebensfähig. Keine Hose bliebe ohne Friktion am Körper, keine Bremse brächte ein Auto zum Stehen. Ohne Friktion hielte kein Knoten, es gäbe keine Stahlindustrie. Friktion, das ist auch die Diskrepanz zwischen dem technisch Möglichen und einer gesellschaftlich erwünschten Zukunft. Die sollten wir aushalten können.

Aber ebendiese notwendige Fähigkeit, sich mit Widerständen auseinanderzusetzen, geht verloren. Damit sind wir wieder beim «clean up»-Feature der «Apple Intelligence»: Wir retuschieren die Welt, wie sie uns gefällt. Erst gab es den Sozialneid auf Facebook, weil andere immer die schöneren Reisen machten, dann kam das Insta-Face. Es führt inzwischen tatsächlich dazu, dass die Gesichter junger Frauen wie in einem durchschnittlichen Pixel der reibungslosen Schönheitsideale zusammenrutschen. Und jetzt löschen wir die Menschen einfach ganz.

Ganz ehrlich: Es wäre langfristig selbstverständlich leichter, auf «Apple Intelligence» zu verzichten, als darauf, dass wir in Europa in der Lage sind, bewusst mit Friktion umzugehen. Wenn man gerade in die Welt schaut, dann beschleicht einen das Gefühl, wir hätten das Äquinoktium der Zivilisationsgeschichte schon erreicht. Licht und Finsternis stehen sich wieder ebenbürtig gegenüber. Und wenn man genau hinschaut, wälzt sich eine Schlange auf uns herab, die sich mit keiner KI löschen lässt. Wir müssen diese Schlange nicht auch noch mithilfe von KI beschleunigen und fett machen.

Die KI-Wende: allmählich, dann plötzlich

Es sind oft die langsamen, unscheinbaren Entwicklungen, die viele erst im Zweifel lassen, ob wirklich etwas grundlegend anders wird, aber die dann schlagartig alles überall auf einmal verändern. In Ernest Hemingways Roman «The Sun Also Rises» (deutsch: «Fiesta») erklärt ein Protagonist auf die Frage, wie er bankrottgegangen sei: «Auf zwei Arten. Allmählich, dann plötzlich.» Genau so erleben wir den Umbruch durch Künstliche Intelligenz. Was als stille Evolution im Hintergrund begann, in Empfehlungsmaschinen, Suchmaschinen und Bilderkennung, ist zur ultimativen Disruption geworden.

Als die erste Auflage dieses Buchs Anfang 2024 erschien, lösten große Sprachmodelle wie ChatGPT, Claude und Gemini bereits Wellen der Bewunderung, aber auch Belustigung und Besorgnis aus. Uns war jedoch klar: Das war nur das Vorspiel. Jetzt kommt der Hauptakt: Nach vielen Jahrzehnten der KI-Forschung befinden wir uns inmitten einer Zeitenwende, in der eine Technologie den Quellcode der Menschheit verändern wird. Das geht erst ganz allmählich, aber irgendwann kommt der Punkt, an dem es wirkt, als werde sehr plötzlich ein Schalter umgelegt: Dann sind das Leben, die Wirtschaft und die Politik mehr KI als nicht KI. Auf diese Wende sollten wir uns sorgsam vorbereiten.

Wir haben eine Technologie entwickelt, die in der Lage ist, einen Großteil kognitiver menschlicher Arbeit auszuführen. Und im Gegensatz zu früheren technologischen Innovationen wie dem Smartphone oder dem Internet verbreitet sie sich mit atemberaubender Geschwindigkeit. KI assistiert mittlerweile bei Vertragsverhandlungen, protokolliert Meetings, automatisiert Kundensupport, optimiert Finanzportfolios, simuliert Geschäftsmodelle, personalisiert Bildung und beschleunigt Forschung – oft mit Ergebnissen, die die menschliche Arbeit ergänzen oder übertreffen.

KI-Assistenten: Geheimagenten des Fortschritts

In der Wissenschaft beispielsweise können wir erste beeindruckende Auswirkungen beobachten. So zum Beispiel bei einem von Google entwickelten Multiagentensystem, genannt «Co-Scientist». Es umfasst mehrere spezialisierte KI-Agenten, die zusammenwirken – wie ein eingespieltes Forschungsteam, das sich gegenseitig ergänzt. Dieser Co-Scientist entdeckte ein neues Einsatzgebiet für bestehende Medikamente, und zwar gegen eine aggressive Form von Blutkrebs. Statt nur theoretische Vorschläge zu machen, fand das Modell Wirkstoffe, die im Labor tatsächlich das Wachstum von Krebszellen stoppen konnten.

Dasselbe Modell hat außerdem ein neues Ziel für die Behandlung von Lebererkrankungen vorgeschlagen. Die KI identifizierte eine Möglichkeit, die Narbenbildung in der Leber zu reduzieren, eine Entdeckung, die in Experimenten bestätigt wurde. Anstatt nur Muster in Daten zu erkennen, entwickelte sie eine Idee, die medizinische Fachkräfte und Forschende weiterverfolgen können. Und als wäre das nicht genug, fand die KI noch heraus, wie sich Bakterien gegen Antibiotika wehren. Sie rekonstruierte in nur zwei Tagen eine bisher unveröffentlichte Entdeckung darüber, wie Bakterien ihre Resistenz weitergeben – eine Erkenntnis, für die Forschende vorher zehn Jahre gebraucht hatten.

Hier zeigt sich, was möglich ist, wenn Maschinen nicht nur Daten analysieren und Texte schreiben, sondern eigenständig nach Antworten suchen. KI wird damit zu einem echten Innovationsbeschleuniger und Fortschrittspartner der Menschen.

Im Zentrum dieser Entwicklung stehen die KI-Agenten. Das sind Softwareprogramme, die mit ihrer Umgebung interagieren, Daten sammeln und die Daten dann dazu verwenden, selbstbestimmt ganze Aufgaben auszuführen, um ein vorgegebenes Ziel zu erreichen. OpenAI hat Ende Januar 2025 «GPT Operator» veröffentlicht, ein KI-Agent, der selbsttätig einen Tisch im Restaurant reserviert und vieles mehr. Der Agent arbeitet in einer eigenen Browserumgebung und kann irgendwann potenziell alles am Computer machen, was ein Mensch dort auch tun kann. Derzeit läuft das noch nicht alles rund, aber die Agenten werden sich ebenso schnell verbessern, wie die KI sich insgesamt in den vergangenen gut zwei Jahren entwickelt hat, nämlich in rasendem Tempo.

Das US-Unternehmen Anthropic hat mit «Claude Computer Use» ebenfalls ein Agentensystem im Beta-Modus vorgestellt, das Beeindruckendes leisten kann. In einem Beispiel analysiert die KI das minutenlange Video eines Mobiltelefons, mit dem der Besitzer den Zustand einer Baustelle dokumentiert. Claude bietet auf Basis der Analyse dann eine seitenlange Excel-Liste an, in der alle technischen und Sicherheitsmängel auf der Baustelle dokumentiert sind, und fragt: Möchtest du, dass ich ein Trackingsystem aufsetze, mit dem du die Behebung der Mängel aufzeichnen und verfolgen kannst?

Auch im Bereich der agentischen Intelligenz hat China den Westen wiederum nervös gemacht. Im März 2025 veröffentlichte das chinesische KI-Unternehmen Butterfly Effect den KI-Agenten «ManusAI». Im Demonstrationsvideo nennt ein Unternehmensvertreter die KI den ersten vollständig autonomen Agenten und bezeichnet die Technologie als das nächste Paradigma der Mensch-Maschine-Kollaboration. Da ist sicher auch viel Marketing dabei, aber wenn man dann zuschaut, wie die KI Hunderte von Lebensläufen durchforstet, nach Kriterien bewertet und vergleicht, um dann eine Empfehlung dafür zu liefern, welche Kandidaten am ehesten angestellt werden sollen, bleibt einem schon der Mund offen.

Von diesen Multiagentensystemen war noch kaum die Rede, als wir das Buch veröffentlicht haben. Jetzt sind sie das große Gewinnspiel, das vermutlich darüber entscheiden wird, wer das Rennen im globalen Wettbewerb um die Entwicklung der Künstlichen Intelligenz macht.

Co-Intelligenz: die neue Arbeitswelt

Und ebendiese Multiagentensysteme führen auch zu den nächsten großen Visionen über die Zukunft unserer Arbeitswelt. In einem Gespräch bei einer J.-P.-Morgan-Konferenz entwarf OpenAI-Gründer Sam Altman kürzlich seine Zukunftsvision: das Einpersonen-Einhorn. Gemeint ist ein Ein-Milliarden-Dollar-Unternehmen, das von nur einem Menschen geführt wird – alle anderen Mitarbeitenden sind KIs.

Altman ist mit dieser Prognose durchaus nicht alleine. «Dies wird die letzte Generation von CEOs sein, die nur Menschen managen wird», prophezeite der Salesforce-Gründer und -CEO Marc Benioff beim World Economic Forum 2025. «Von nun an werden wir nicht nur menschliche, sondern auch digitale Mitarbeitende führen. Und das ist einfach unglaublich.»

Diese Zusammenarbeit zwischen Menschen und digitalen Mitarbeitenden wird, wie wir im Buch beschreiben, unsere Arbeitsweise fundamental verändern. Das zeigt auch eine neuere Studie aus dem Maschinenraum des modernen Wissenskapitalismus. Das Experiment bei Procter & Gamble mit 776 Mitarbeitenden wirkt wie ein Ausblick in die nahe Zukunft des Arbeitens und wie ein leiser Abgesang auf eine bisherige Gewissheit: dass gute Ideen zwingend durch menschliche Kooperation entstehen müssen. Denn was sich zeigt, ist bemerkenswert. Menschen mit KI an ihrer Seite liefern Lösungen, die qualitativ mit klassischen Zwei-Personen-Teams konkurrieren. Der Mensch-Maschine-Doppelpass schlägt menschliche Doppelspitze. Und das mit weniger Zeitaufwand, mit höherer menschlicher emotionaler Zufriedenheit und mit einer Aufweichung jener Silos, die Unternehmen seit Jahrzehnten lähmen: Forschung und Entwicklung versus Marketing, Technik versus Markt, Spezialistentum versus ganzheitliches Denken.

Was bedeutet Expertise in einer Welt, in der eine KI nicht nur Inhalte vorschlägt, sondern Denkweisen überbrückt? Die Studie dokumentiert, wie Mitarbeitende mit KI plötzlich über ihre gewohnten Grenzen hinausdenken. Doch der wegweisendste Befund ist vielleicht der unscheinbarste: das emotionale Echo. Wer mit KI arbeitet, fühlt sich häufiger motiviert, weniger gestresst, überraschend menschlich unterstützt. Das widerspricht dem Narrativ von der entfremdenden Maschine. Hier entsteht etwas Neues – eine Form von kybernetischer Verbundenheit, gespeist aus Sprache, Feedback und der Illusion von Nähe. Die KI als Teammitglied mag keine Kaffeepausen brauchen, aber sie erzeugt Resonanz.

Und doch: Zwischen den Zeilen lauert auch eine Warnung. Denn während die Qualität steigt, steigt auch die Ähnlichkeit der Lösungen. Die semantische Dichte nimmt zu. Die Handschrift des Modells schleicht sich ein. Kreativität wird effizient – aber auch homogener. Der Code schreibt sich in die Kultur ein, subtil, aber nachweisbar. Das Risiko ist nicht das Maschinen-Denken, sondern das gleichförmige Menschen-Denken durch Maschinenimpuls.

Im Gespräch mit der Chefin eines Finanzinstituts hörten wir, dass im Unternehmen ein einzelner Arbeitsschritt durch KI um 20 Minuten beschleunigt werden kann. Dieser Arbeitsschritt findet im Unternehmen 140000 Mal im Jahr statt. Umgerechnet ist das die Arbeitszeit von 30 Mitarbeitenden, die so eingespart werden kann. Und das ist nur ein Arbeitsschritt von Tausenden. Flächendeckende Auswirkungen auf Produktivität und Wirtschaftswachstum werden noch ein wenig auf sich warten lassen. Eine Technologie muss großflächig eingesetzt werden, um ihre Wirkung entfalten zu können. Das gilt bei KI noch mehr als beim Computer oder dem Internet. Aber diese Auswirkungen deuten sich für alle sichtbar längst an. All das wird die Arbeitsmärkte umkrempeln, wie wir in den Kapiteln 4 und 5 beschreiben.

Und wer jetzt mit dem Gedanken spielt, das eigene Unternehmen künftig doch lieber alleine zu führen und alles andere durch KIs erledigen zu lassen, dem sei ein Beispiel ans Herz gelegt: In einem Showroom für Industrieroboter in Shanghai trug sich kürzlich des Nachts ein seltsamer Aufruhr zu, der von den Überwachungskameras aufgezeichnet wurde. Mitten in der Nacht fährt ein kleiner Roboter namens Erbai in die Ausstellung und positioniert sich vor einem anderen, viel größeren Industrieroboter. «Machst du Überstunden?», fragt Erbai den Kollegen. «Ich habe einfach nie frei», antwortet der. «Und gehst du gar nicht nach Hause?», fragt Erbai weiter. «Ich habe kein Zuhause», antwortet der andere Roboter. «Dann komm mit mir nach Hause», sagt Erbai und rollt los. Und ein Industrieroboter nach dem anderen folgt dem kleinen Kerl.

Das Video dieser Begebenheit ging um die Welt, auch weil der Hersteller von Erbai klar kommunizierte: Das war kein Witz, sondern das Ergebnis eines Experiments. Will man den Vorfall aber metaphorisch auslegen, dann war das der Auszug der überarbeiteten Roboter aus ihrem menschengemachten Industriegefängnis. Die Ludditenbewegung, die wir im Buch ansprechen und bei der Ende des 19. Jahrhunderts menschliche Weber gegen die Maschinen aufbegehrten, könnte sich heute unter umgekehrten Vorzeichen wiederholen – als Aufstand der Maschinen gegen die Menschen. Und wer will als Mensch ganz alleine an der Spitze eines Milliardenunternehmens stehen, wenn die KI den Aufstand probt?

Die Bequemlichkeit des Seins: was vom Denken übrig bleibt

Wir argumentieren in unserem Buch, dass der menschliche Faktor immer ein zentraler Teil unserer Kollaboration mit Künstlicher Intelligenz sein muss. Und wir unterlegen dieses Argument mit dem Wissen um die Besonderheiten des menschlichen Bewusstseins, das nicht nur aus kognitiven Prozessen über neuronale Signalverarbeitung besteht (dieser Teil ist der, der den Funktionsweisen von KI am ähnlichsten ist).

Allerdings gibt es erste Hinweise darauf, dass wir uns um unsere menschliche Denkfähigkeit Sorgen machen müssen. Tests zeigen, dass die Fähigkeit des Durchschnittsmenschen, zu denken und Probleme zu lösen, in den frühen 2010er-Jahren ihren Höhepunkt erreicht hat, seitdem scheint sie zu sinken. Das gilt nicht nur für Jugendliche, sondern auch für Erwachsene, wie die langfristigen Auswertungen der OECD-PISA-Studien belegen. Einer der Gründe für diesen Verfall des Denkens liegt sicherlich in den sozialen Medien. Wir verbringen zu viel Zeit mit einem Bildschirm und zu wenig Zeit damit, strukturiertes, komplexes Denken zu üben.

Künstliche Intelligenz scheint diesen geistigen Verfallsprozess weiter zu beschleunigen. Eine Studie von Microsoft aus dem Jahr 2025 zeigt, dass KI-Nutzung die Fähigkeit kritischen Denkens negativ beeinflusst. Dabei ist ein höheres Vertrauen in generative KI mit weniger kritischem Denken verbunden, während ein höheres Selbstvertrauen des Menschen mit mehr kritischem Denken einhergeht. Die Ergebnisse zeigen auch: GenAI reduziert die Anwendungen des kritischen Denkens auf die Überprüfung von Informationen, die Integration von Antworten und die Verwaltung von Aufgaben. Das bedeutet auch, dass wir trotz des Zugangs zu immer mehr Expertenwissen dieses Wissen dekontextualisiert erleben. Der Mensch wird damit zum Concierge des Denkens: Er organisiert den Prozess und schaut, dass alles logistisch läuft, aber den eigentlichen Denkmechanismus überlässt er der KI – so wie der Concierge im Hotel immer nur das Restaurant reserviert, essen gehen aber die Gäste.

Schöpferische oder zerstörerische Zerstörung: ein Moment der Entscheidung

Man muss die Ergebnisse dieser Studie nicht dramatisieren. Aber sie geben einen Hinweis auf die größte Gefahr inmitten all der großartigen Möglichkeiten der Künstlichen Intelligenz: das Sich-selbst-Vergessen. Es wird eine wachsende Herausforderung für uns Menschen sein, kritisches Denken zu erlernen, sich der Mühsal auszusetzen, die es bedeutet, wenn man richtig gut lesen, schreiben, rechnen lernt, alle die Befähigungen, die Menschen brauchen, um das Denken zu entwickeln und sich selbst dabei zu einer reflektierenden Persönlichkeit. Dazu gehört auch der emotionale Prozess, das menschliche Erleben der eigenen Weiterentwicklung.

Dieser Gedanke scheint manchmal auf, wenn wir mit KI-Tools arbeiten und zum Beispiel den schwarzen pulsierenden Punkt beobachten, der bei ChatGPT signalisiert: Das Modell ist gerade im «Reasoning»-Prozess, praktiziert also seine Art des «Denkens». Und dann liefert es in wenigen Sekunden eine Idee, Struktur oder eine kritische Einschätzung, die wir in Stunden nicht so hätten entwickeln können – wenn überhaupt. Im Lichte dieser Erfahrungen, auch der bahnbrechenden Verbesserungen der Modelle über die vergangenen achtzehn Monate, steht ein Begriff am Horizont, mit dem wir uns beschäftigen müssen: AGI.

Diese «Allgemeine Künstliche Intelligenz» meint die Fähigkeit einer KI, jede intellektuelle Aufgabe ebenso gut lösen zu können wie ein Mensch – oder besser. Wir sind keine Fans dieses Begriffs, weil die Diskussion darum von vielen aktuellen Problemen und Chancen der KI ablenkt, die wir erst einmal begreifen und umsetzen sollten. Aber die Weiterentwicklung der Technologie verläuft rasant. Längst werden große Teile der Codeentwicklung nicht mehr durch Menschenhand, sondern durch KI erledigt. Wir erlauben der Technologie also indirekt, sich selbst weiterzuschreiben. Deshalb muss eine Diskussion darüber geführt werden, wie wir sicherstellen, dass Menschen «in the loop» bleiben, also immer die letzte Entscheidung treffen können. Denn eine KI darf niemals autonom entscheiden, was sie entscheiden darf.

Der österreichische Ökonom Joseph Schumpeter hat den Begriff der «schöpferischen Zerstörung» geprägt. Er beschreibt, wie alte Güter und Produktionsprozesse in der Wirtschaft durch neue ersetzt werden. Für Schumpeter ist dieser Prozess der Motor der Innovation und des Wirtschaftswachstums. KI hat das Potenzial, unsere Güter und Produktionsprozesse weitreichend zu verändern und zu erneuern, und es ist inzwischen absehbar, dass diese Veränderungen Milliarden an Produktivitätsgewinnen und Wachstum mit sich bringen können.

Die schöpferische Zerstörung durch KI könnte aber auch existenziell gefährliche Ausmaße annehmen. Dann nämlich, wenn wir der KI erlauben, uns Menschen so zu überholen, dass wir auf der Strecke bleiben. Das wäre dann keine schöpferische Zerstörung mehr, sondern eine zerstörerische Zerstörung. Alles, was Menschen in der Evolution der Intelligenz geschaffen haben, wäre zu Ende. Was danach kommt, das wird dann die KI für uns berechnen.

Genau an diesem Punkt stehen wir. Zwischen grenzenlosen Möglichkeiten und realen Risiken. Zwischen dem Wunsch, KI zu nutzen, und der Notwendigkeit, sie zu kontrollieren. Zwischen dem, was uns produktiver macht, und dem, was uns überflüssig werden lässt.

2023 war generative KI noch ein spektakuläres Tool. 2025 ist sie eine gestaltende Kraft in Politik, Wirtschaft und Gesellschaft. Wir müssen jetzt entscheiden, welche Richtung wir einschlagen. Lassen wir KI die Kontrolle übernehmen – oder gestalten wir den Wandel aktiv mit?

Unser Buch hat viele dieser Entwicklungen schon angerissen und beleuchtet. Dieses Vorwort ist unsere Art des «Versionings», wie man es in der Codiersprache sagt – unsere Version 1.1. Unsere These aber bleibt: Der Mensch muss die zentrale Rolle in der Entwicklung und Steuerung von KI behalten. KI kann uns bereichern, aber wir dürfen nicht vergessen, dass sie aus unserer eigenen Kreativität und unserem Wissen geboren wurde.

Sie verändert dennoch alles, überall, auf einmal.

 

Miriam Meckel & Léa Steinacker

Frühjahr 2025

When the machine starts

Will you remind me

I saw the truth once

I saw it floating in the air

Don’t let me forget

Missy Higgins

0Prolog: Im Multiversum der Künstlichen Intelligenz

Es war auf dem Weg zum Zukunftsfestival South by Southwest in Austin, Texas, als der Groschen fiel. Er fiel nicht laut, sondern ganz leise, denn es war ein virtueller Groschen. Und er fiel auch nicht schnell. In Zeitlupe bewegte sich die Münze durch die neuronalen Windungen unserer Gehirne, so wie eine Kugel durch einen Flipperautomaten, um immer wieder anzuecken und zurückgeschleudert zu werden. Kommt die Kugel jemals an, oder verschwindet sie immer nur in einem schwarzen Loch, um dann wie durch Zauberhand wieder ins Spiel geworfen zu werden? Wir wissen es nicht.

Wir saßen im Flugzeug in die USA. Und was macht man auf einem Langstreckenflug? Man schaut auch mal einen Film. Da gab es einen, der gerade sieben Oscars gewonnen hatte, darunter den für das beste Werk. Sein Titel: «Everything Everywhere All at Once». Wenn er nicht weltweit in allen Medien gewesen wäre, wir hätten im Flieger nicht gewusst, worum es in dem Film geht. Denn das Informationssystem im Flugzeug kündigte ihn mit einem lapidaren Satz an: «Eine Chinesin hat Schwierigkeiten mit ihrer Steuererklärung.»

Das ist der wohl langweiligste Teaser für einen Film, den man sich vorstellen kann. Er hat auch nahezu gar nichts mit dem Inhalt zu tun. Ob beim Texten eine KI im Spiel war? Oder hat hier ein Mensch den Film schlicht nicht verstanden?

Da ist Evelyn, gespielt von der Oscar-Gewinnerin Michelle Yeoh. Die chinesische Einwanderin hat einen Waschsalon, einen Ehemann, der mehr Waschlappen als Prinz Charming ist, und eine rebellische Tochter, die den Begriff «Teenager-Trotz» auf ein ganz neues Level hebt. Und dann flattert auch noch Post vom Finanzamt ins Haus: eine bevorstehende Steuerprüfung. Die soll eine strenge Bürokratin, grandios gespielt von Jamie Lee Curtis, durchführen. Evelyns Besuch bei der Steuerbehörde eskaliert schneller, als man «Steuererklärung» aussprechen kann. Ihr Ehemann entpuppt sich plötzlich als Martial-Arts-Kämpfer und verdrischt die Sicherheitskräfte, um Evelyn eine Nachricht aus dem Jenseits zu überbringen. Raum und Zeit lösen sich auf, denn die Menschen um Evelyn herum, ebenso wie sie selbst, haben viele weitere Leben in Parallelwelten. Das Multiversum ist real. Evelyn kann auf die Fähigkeiten und die Biografien anderer Versionen ihrer selbst zugreifen – und das tut sie auch. Denn sie ist schlagartig mit einer einzigartigen Mission betraut: der Rettung der Welt vor dem unbekannten Bösen.

«Eine Chinesin hat Schwierigkeiten mit ihrer Steuererklärung.» Wie kann man diesen spektakulären Film so zusammenfassen? Vielleicht ist diese Kurzbeschreibung programmatisch. Sie könnte eine Metapher sein für die Zeit, in der wir uns bewegen, für die Komplexität der Veränderung und unsere zeitweilige menschliche Überforderung und Unfähigkeit, diese Veränderungen zu verstehen und adäquat in Gedanken und Worte zu fassen.

Die Zeit, in die wir eingetreten sind, ist die der Künstlichen Intelligenz. Das ist eine Technologie, die gar nicht neu ist, wir alle haben schon seit Jahren täglich damit zu tun. Bisher hat sie sich für die meisten von uns gut versteckt bei Onlinediensten wie Netflix, Spotify, Amazon, Google. Ende November 2022 aber kam eine Anwendung auf den Markt, die für alle deutlich gemacht hat, was sich verändert: ChatGPT. Ab diesem Tag konnten Menschen in aller Welt direkt mit Künstlicher Intelligenz sprechen, sie ausprobieren. Die Zeit der Massenanwendung von KI, die etwas erzeugen kann – generativer KI –, war angebrochen. Es ist auch die Zeit unfassbar leistungsfähiger Tools. KI auf Steroiden.

Das ändert alles überall auf einmal.

Mit einem Entwicklungsschub seit 2017 hat sich das Feld der Künstlichen Intelligenz über die großen Sprachmodelle wie ChatGPT von OpenAI, Gemini, ehemals Bard, von Google oder Claude von Anthropic zu einer Allzwecktechnologie entwickelt. Die eröffnet ein Multiversum an Perspektiven und Möglichkeiten, so wie auch der preisgekrönte Film sie uns zeigt.

Alles: Genauso wie Evelyn Wang sich in einem Multiversum mit alternativen Realitäten wiederfindet, öffnen uns große Sprachmodelle die Pforten zu einem digitalen Multiversum voller Möglichkeiten. In dem spulen Maschinen nicht nur Skripte ab, sondern machen Wortwitze, schreiben Gedichte, entwickeln Software und designen sogar andere Maschinen. Sie werden nicht nur dazu da sein, uns zu dienen; sie werden uns auch eine neue Idee davon vermitteln, was es bedeutet zu «existieren».

Während Evelyn Wang mit ihrem heruntergekommenen Waschsalon zu kämpfen hat, ringen auch wir mit veralteten Systemen, die dringend ein kosmisches Upgrade benötigen – in Wirtschaft, Politik und unserem Alltag. Wie wäre es, wenn ein individueller KI-Assistent unseren Tag so perfekt organisierte, dass wir von all den lästigen wiederkehrenden Aufgaben entlastet würden und damit mehr Freizeit hätten, um unsere alternativen Lebensuniversen zu erkunden – wieder mehr Posaune zu spielen, den Sauerteig zu perfektionieren oder für eine lokale Hilfsorganisation zu arbeiten? Wie wäre es, wenn Künstliche Intelligenz unserer Wirtschaft einen neuen Wachstumsschub bescheren und unsere politischen Systeme wieder mehr zu dem machen würde, was sie mal sein sollten: repräsentativ für die Überzeugungen und Wünsche aller Menschen?

Wie der Film in seiner rasanten Optik unsere Sinne überflutet, so wird die generative KI einen Tsunami an Inhalten auslösen und unsere vernetzte Kommunikationswelt durcheinanderwirbeln. Empfinden wir das Internet schon jetzt nicht immer nur als Bereicherung, sondern manchmal auch als überlastend? Dann kann die Weiterfahrt stürmisch werden. Um nicht in einem Ozean KI-produzierter Gemischtwaren zu ertrinken, werden wir neue sichere Häfen der Bedeutung und Verständigung bauen müssen.

Überall: In Evelyns Multiversum gibt es eine unbegrenzte Zahl alternativer Realitäten. Es mag derzeit noch absurd klingen, aber genau diese Art von erweiterter Vorstellungskraft bringt generative KI in unsere Wirtschaft ein. Sie wird innovative Produkte schaffen, die Probleme lösen, von denen wir noch nicht mal wussten, dass wir sie haben, und sie wird ganze Industriezweige neu ordnen. Künstliche Intelligenz hat das Potenzial, unser bisheriges Wirtschaftsmodell so aussehen zu lassen, wie es ist: an vielen Stellen veraltet und dysfunktional. Wenn wir sie richtig nutzen, kann sie uns helfen, neue Akzente zu setzen und beispielsweise die Produktivität anzukurbeln.

In einer Szene des Films überblicken Evelyn und ihre Tochter als fühlende Steine den Grand Canyon. Was wird es bedeuten, wenn generative KI die emotionalen und sachlichen Dimensionen der öffentlichen Diskussion durchforsten kann, um in jedem Augenblick ein akkurates Bild des Zustands einer Gesellschaft zu liefern? Wird uns das ein differenzierteres Gespräch miteinander ermöglichen, oder werden wir weiter abgleiten in einen Kampf um die Vorherrschaft über die Signale, die von der KI ausgewertet werden? KI bringt uns auch für das politische und gesellschaftliche System einen Grand Canyon an Möglichkeiten. Wir können in seine Tiefen abstürzen oder an seiner Kante stehen und vom neuen Weitblick profitieren.

Auf einmal: Wie Evelyns Reise durch das Multiversum sie dazu zwingt, sich selbst zu hinterfragen, stellt uns generative KI vor die Frage, was es bedeutet, Mensch zu sein. Wenn ein Algorithmus ein Gedicht schreiben kann, das uns zum Weinen bringt, oder einen Witz, über den wir lachen können, was sagt das über die menschliche Kreativität aus? Was geschieht mit den heiligen Grundsätzen des Individualismus, des freien Willens und der persönlichen Verantwortung, wenn KI einen größeren Anteil an unseren Entscheidungen hat als wir selbst?

Für all das muss es auch im KI-Multiversum ein paar Regeln geben, die nicht nur für irgendeine außerirdische Galaxie gelten. Der Mensch muss zentraler Teil der Wertschöpfungskette bleiben. Vor allem aber muss er selbst maßgeblich über seine Zukunft entscheiden. Dann wird KI zur Co-Pilotin auf unserem Weg in die Zukunft der Mensch-Maschine-Kollaboration.

Wir bauen gerade neue Welten – wir Menschen, gemeinsam mit der KI. Die kann uns an einigen Stellen so gut imitieren, dass Verwechslungsgefahr besteht. Als Allzwecktechnologie stellt uns KI vor zahlreiche gesellschaftliche Grundsatzfragen. Bleibt das Wissen über sie auf ein paar elitäre Zirkel beschränkt, sind viele von uns anfällig für Risiken der neuen Technologie. Dann wissen wir gar nicht mehr, wer oder was für uns entscheidet. Wir verlieren uns in verdummenden Ablenkungen und «Fake News». Wir versacken weiter in Strukturen der Ungleichheit, die benachteiligte Gruppen unter dem Feigenblatt der Statistik weiter ausschließen. Und wir geben an die Maschinen und ihre Betreiber ab, was unser Leben so einzigartig macht: die Freiheit und Autonomie, unsere Existenz gestalten zu können.

Das wollen wir verhindern. Klar ist schon jetzt: Die neuen KI-Systeme werden zu Dampfmaschinen des Geistes, unseren kognitiven GPS-Systemen oder einfach zu Klettergerüsten fürs Denken. Es ist Zeit, die ersten Stufen des Gerüsts zu erklimmen, Erfahrungen damit zu machen, um vorbereitet zu sein auf das, was kommen wird, und es im besten Sinne mitzugestalten.

Seit vielen Jahren forschen, lehren und experimentieren wir, die Autorinnen, im Feld der Künstlichen Intelligenz. Dieses Buch verbindet Ergebnisse neuester Forschung mit unseren Einblicken und Erlebnissen auf Reisen von San Francisco bis Shanghai, von Davos bis Singapur, von Boston bis Kaiserslautern. Es ist als Einstieg gedacht in die neue Welt, die sich nun auftut. Das Buch soll denjenigen als Leitplanke dienen, die gerade erst beginnen, sich den Weg in das Themenfeld zu bahnen. Es soll aber auch diejenigen inspirieren und weiterführen, die mit dem Thema vertraut sind.

Auch Evelyn Wang steht im Film immer wieder am Scheideweg. In der Fülle ihrer Möglichkeiten schwingt eine Frage durchweg mit: «Was wäre, wenn?» In der Welt der KI als Allzwecktechnologie wird «Was wäre, wenn?» zu einer algorithmischen Anfrage an uns selbst. Was, wenn diese Technologie uns tatsächlich die Möglichkeiten der Veränderung brächte, auf die wir seit Jahren gewartet haben? Was, wenn wir nicht nur Arbeit, sondern auch Weisheit automatisieren könnten? Was, wenn wir KI erschaffen würden, die uns besser versteht als wir uns selbst? Was, wenn es uns gelänge, das Zusammenspiel von Mensch und Maschine so zu nutzen, dass beide gemeinsam einen universellen Evolutionsschub vollbringen können?

Es ist sehr verständlich, dass all diese Fragen erst einmal zu Verwirrung führen. Menschen haben Ängste, sie könnten im Verlauf des Fortschritts auf der Strecke bleiben. Sie mögen es auch nicht, wenn sie nicht genau verstehen, was gerade abgeht. Noch ist den meisten nicht klar, was das alles bedeuten kann und welche Rolle sie in dieser neuen Zeit als Menschen spielen werden. Wir haben metaphorisch gerade Schwierigkeiten mit unserer existenziellen Steuererklärung, die wir irgendwann einmal uns selbst, unseren Lieben oder auch einer höheren Einheit vorlegen wollen, um zu wissen: Wer bin ich, wie habe ich gelebt, welche Einsichten habe ich gesammelt – und wie unterscheidet sich das alles noch von dem, was Künstliche Intelligenz nun in ihren nahezu unendlichen Einsatzmöglichkeiten erledigen wird?

Wie wird einst unsere Zukunftsbilanz aussehen? Das hängt wesentlich davon ab, ob und wie es uns gelingen wird, den richtigen Entwicklungspfad einzuschlagen. Im Multiversum ist immer alles gleichzeitig wahr, und das gilt auch für das KI-Multiversum. Die Technologie kann uns in eine neue Zeit der Arbeitsentlastung, des Wohlstands, ja sogar des evolutionären Fortschritts führen – oder auch in eine Zeit der Demokratiedämmerung, Entrechtung und Entmenschlichung. Alles ist parallel möglich, im Guten wie im Schlechten. Wir sind diejenigen, die jetzt wichtige Weichen stellen können.

Die Reise in eine neue Zeit hat begonnen. Schnallen wir uns also an, stellen wir alle Regler auf Offenheit und Neugier, und machen wir uns bereit für den Sprung in das KI-Multiversum. Wenn diese Reise zwischendurch wie die Fahrt in einer Achterbahn wirkt, dann ist das kein Grund zur Sorge. Wir sind immer nur ein Universum entfernt von einer völlig neuen Perspektive.

Willkommen im Zeitalter von Alles überall auf einmal.

1Abrakadabra: Ich erschaffe, während ich spreche

ChatGPT war von Beginn an weit mehr, als der Name verspricht. Chatbots gab es schon lange, aber eben nicht solche. Mit ChatGPT lässt sich in Sekunden ein Text schreiben, eine E-Mail, ein LinkedIn-Post oder auch ein ganzer Essay entwerfen, ein soeben abgehaltenes Meeting zusammenfassen, die Gebrauchsanweisung einer Waschmaschine zu einem Gedicht im Stil Shakespeares umformulieren. Am Anfang waren da schlicht die Neugier und Faszination, mit einem Instrument herumzuspielen, das menschlicher wirkte als jede technische Anwendung zuvor. Aber das reicht nicht als Erklärung dafür, dass die Nutzungszahlen für ChatGPT in fünf Tagen auf eine Million Menschen und in zwei Monaten auf 100 Millionen Menschen kletterten – das rasanteste Wachstum einer Anwendung seit der Erfindung des Internets. Schnell wurde klar: ChatGPT bringt mehr als nur zusätzliche Leistung, es hebt die Unterstützung des Menschen durch Künstliche Intelligenz auf eine neue Stufe. Was die Anwendung kann, konnte so bislang keine Sprachtechnologie auch nur annähernd liefern.

Das war der «iPhone-Moment» der Künstlichen Intelligenz: So wie das iPhone mit seiner Einführung am 29. Juni 2007 die Revolution des mobilen Zugangs zu Informationen und Dienstleistungen möglich gemacht hat, so hat ChatGPT den Beginn einer Zeit eingeläutet, in der Menschen problemlos mit Maschinen sprechen können. Damit gehen wir über in die Phase einer breiten, gesellschaftsweiten Anwendung von KI-Systemen, die bislang Spezialisten und Expertinnen vorbehalten war. Eine klare und zielgerichtet formulierte Eingabe genügt, und ChatGPT spuckt aus, was man gerne hätte. Nicht alles stimmt. Und manchmal weigert sich der Chatbot, auf eine Frage zu antworten, weil sie nicht den Regeln entspricht, die ihm gegeben wurden. Aber in vielen Fällen ist das Ergebnis brauchbar und ein zeit- und energiesparender Einstieg in einen Arbeitsprozess, an dessen Ende ein neuer Text, eine Marketingkampagne, ein Strategiepapier oder gar eine Idee für ein Geschäftsmodell stehen kann.

Für alle diejenigen, die nicht in der Computerwissenschaft und Softwareentwicklung ausgebildet sind, ja sogar für viele Expertinnen und Entwickler, ist das ein Anfang, dem ein Zauber innewohnt: Abrakadabra, und eine neue Idee entsteht, auf die man selbst vielleicht nie gekommen wäre. Was wie Magie wirkt, sind große Sprachmodelle, die unter der virtuellen Oberfläche neuronaler Netzwerke innerhalb von Nanosekunden die Wahrscheinlichkeit des nächsten Wortes errechnen – und damit etwas hervorbringen, für das Menschen in der Regel sehr viel länger benötigen. Das ist eine Magie, die uns Menschen fordert. Abrakadabra, da geht sie dahin, die menschliche Einzigartigkeit.

Die menschliche Sprache hat eine besondere Kraft und Wirkung. Deshalb wird sie seit Beginn der Zivilisationsgeschichte verehrt, gepflegt und als Wunder der sozialen Interaktion gefeiert. Mit Worten konnte man Menschen bis zum Beginn der Neuzeit um 1500, also bis zur Erfindung des Buchdrucks und bis zum Eintritt in die Wissensgesellschaft, bezirzen und verzaubern: «Abrakadabra» war das Medium einer Heilung oder eines Fluches. Die Menschen glaubten daran, weil sie es nicht besser wussten. In «Abracadabra» stecken auch die ersten vier Buchstaben des lateinischen Alphabets, mit dem wir noch heute alltäglich die Wunder der zwischenmenschlichen Verständigung, aber auch Missverständnisse und Irreführung hervorbringen. Es gelingt nun auch einer Maschine, in diesen Bereich vorzudringen. Was bedeutet das für uns Menschen?

Vor allem, dass wir nicht mehr die Einzigen sind, die über Sprache und Kommunikation ganze Welten erschaffen. Systeme, die zu maschinellem Lernen fähig sind, können das auch. Und ganz unabhängig davon, ob eine Maschine den Sinn des Textes erfasst hat, den sie produziert, so ergibt das, was die Maschine schafft, für uns Sinn. Wir Menschen verstehen es, leiten eine Bedeutung daraus ab, und damit gehört es zu unserer durch Sprache und allgemein verständliche Zeichen geschaffenen Welt.

Bei aller Unklarheit über die tatsächliche Herkunft des Wortes «Abrakadabra» scheint immerhin gesichert, dass es unter anderem auf die aramäische Phrase «avra kehdabra» zurückgeht. Sie bedeutet so viel wie «ich erschaffe, während ich spreche».[1] Das tun Menschen jeden Tag im Umgang mit Sprache, und Maschinen können es nun eben auch.

Traum oder Trauma: Die Zukunft kollektiver Intelligenz

Wir haben Aussicht auf eine kollaborative Zukunft, in der Menschen mit Maschinen zusammenarbeiten und dadurch immer kreativer und produktiver werden. Eine solche Zusammenarbeit ist allerdings kein Selbstläufer. Schon beim Menschen ist Kollaboration etwas zwar Schönes, aber zugleich Schwieriges. Lässt man zwei Poetinnen gemeinsam ein Gedicht schreiben, kann der Prozess schon mal komplizierter sein, als wenn eine allein sich ans Werk macht, und auch das Ergebnis wird bei mehr Beteiligten nicht zwangsläufig besser. Das mag für KI-Kunst ebenso gelten. Mehrere Köche verderben bekanntlich den Brei.

Wenn Mensch und Maschine künftig erfolgreich zusammenarbeiten sollen, dann setzt das voraus, dass wir das geübt haben, dass wir zumindest grob verstehen, was diese KI-Systeme tun, dass wir in der Lage sind abzuschätzen, wofür sie gut einsetzbar sind und wofür eher weniger. Denn die Wirkkraft dieser Systeme reicht weit über die Produktion von Texten, Bildern und Tönen hinaus.

Dabei kommt womöglich eine Interpretation der Formel «Abrakadabra» zum Tragen, die die Erfolgsautorin J.K. Rowling in ihrer Harry-Potter-Reihe aufgreift. Fans kennen den Ausspruch «Avada Kedavra» nur zu gut. Er ist einer der drei unverzeihlichen Flüche, den man frei mit «Ich mache aus dir einen Kadaver» übersetzen könnte. In der Fantasiewelt der Buchreihe ist er seit 1717 zaubereigesetzlich verboten, und zwar aus guten Gründen: Es steckt eine vernichtende Energie dahinter.

Genau das ist auch die Befürchtung vieler, die große Sprachmodelle als Schritt hin zu einer Allgemeinen Künstlichen Intelligenz (AGI) sehen, die uns Menschen irgendwann in allem überlegen sein wird, um sich schließlich selbst zu reprogrammieren und eigene Ziele zu verfolgen. Das müssen dann nicht unbedingt Ziele sein, die wir Menschen gutheißen. Auf dem Weg dorthin sind wir lediglich Kollateralschäden. Oder wie es der KI-Forscher und Turing-Award-Preisträger Geoffrey Hinton gesagt hat, als er sich im Mai 2023 entschied, bei Google auszuscheiden, um vor den Gefahren dieser neuen Modelle zu warnen: «Die Menschheit ist nur eine vorübergehende Phase in der Entwicklung von Intelligenz.»[2]

Im US-Science-Fiction-Magazin «Amazing Stories» beschrieb der Autor David H. Keller schon im Jahr 1931 ein solches Szenario: die «Zerebrale Bibliothek». Die Einleitung zu dieser Geschichte könnte auch aus heutiger Zeit stammen. «Selbst in einem langen und fleißigen Leben bleibt die Menge an Wissen, die man sich aneignen kann, erbärmlich begrenzt im Vergleich zu der riesigen Menge an Dingen, die man eigentlich wissen muss. Es wäre eine große Hilfe, wenn ein wissenschaftlicher Zauberer ein Mittel erfinden könnte, mit dem man auf Knopfdruck die erforderliche Menge an Informationen über ein beliebiges Thema erhalten und aufnehmen könnte.»[3] Da ist er wieder, der magische Wunsch. Abrakadabra, und alles Wissen der Welt liegt uns zu Füßen, und das nur einen Klick entfernt: ChatGPT & Co sind die Zauberer unserer Zeit.

Kellers Geschichte entwickelt sich allerdings zu einem Horrorszenario. Sie beginnt mit einer fiktiven Stellenausschreibung in der «New York Times»: «GESUCHT. Fünfhundert Hochschulabsolventen, männlich, für Sekretariatsarbeiten angenehmer Art. Angemessenes Gehalt. Fünf Jahre Vertragslaufzeit.» Aus den Tausenden von Bewerbungen werden 500 Männer ausgesucht. Sie werden an einen geheimen Ort gebracht, wo sie für einen Unbekannten arbeiten, dessen Ziel es ist, einen «neuen Plan für das Weltwissen» umzusetzen. Ihre Aufgabe ist es, über fünf Jahre jeden Tag aufmerksam ein Buch zu lesen. So würde die Gruppe in den fünf Jahren 750000 Bücher lesen. Dafür soll jeder der Männer 50000 Dollar bekommen.

Auch hierzu gibt es ein paar Analogien aus der Jetztzeit. Die Menge an Daten, mit denen das GPT-System trainiert wurde, entsprach etwa 7000 Büchern. Allerdings war das GPT-1, die erste Version, alle Folgeversionen wurden mit weitaus größeren Datenmengen trainiert. Und dann gibt es auch die menschliche Schinderei, die hinter dem Feedback auf die Ergebnisse steckt, die Sprachmodelle produzieren. OpenAI stellte zeitweilig kenianische Hilfskräfte für zwei Dollar die Stunde an, um gewalthaltige, sexistische und rassistische Inhalte zu entfernen, wie eine Investigativrecherche des US-Magazins «Time» herausfand.[4] Ob diese Jobs auch in der «New York Times» ausgeschrieben waren?

Zurück zur Science-Fiction-Story. Mithilfe eines chinesischen Arztes werden den 500 Männern nach ihrem jahrelangen Lektüremarathon die Gehirne aus den Köpfen entfernt, um das in ihnen «gespeicherte» Wissen aus einer Dreiviertelmillion Bücher zu bewahren. Die Gehirne werden jeweils in ein Gefäß mit Nährlösung gelegt und dann mit Leitungen an eine Maschine angeschlossen, die wiederum mit einem Radio und einer Schreibmaschine verbunden ist – das ist die «zerebrale Bibliothek», die der Auftraggeber für den Preis von 500 Menschenleben geschaffen hat.

In einem ersten Probelauf will der verrückte Unternehmer dem chinesischen Operateur die Maschine vorführen. Er gibt mit der Schreibmaschine die Worte «Bildung», «Australien, «Statistik», «Finanzen» und «Geschichte» ein. Aus dem angeschlossenen Radio ertönt in klarer Sprache der Satz: «Jetzt ist es an der Zeit, dass alle guten und ehrlichen Menschen ihrer Partei zu Hilfe kommen.» Der Arzt fragt verstört: «Das ist die gesammelte Weisheit aus 500 Gehirnen?»

Hinter dieser Geschichte steckt die große Frage, wie es gelingen kann, unser Wissen zu bewahren und für alle Welt dauerhaft zugänglich zu machen, also eine kollektive Intelligenz zu schaffen. In der Philosophie findet sich dazu das Gedankenexperiment des «Gehirns im Tank». Diese auf den US-Philosophen Gilbert Harman zurückgehende Metapher[5] beschreibt die alte philosophische Frage, ob wir in der Lage sind, zu erkennen und zu unterscheiden, was Realität ist und was Illusion. René Descartes hat sie mit dem Satz «Ich denke, also bin ich» beantwortet. Eine andere erkenntnistheoretische Betrachtung kommt zu dem Schluss, dass auch ein menschliches Gehirn niemals wissen kann, ob es in einem Kopf oder in einem Gefäß mit Nährlösung steckt. Für unser Verständnis von KI-Systemen lässt sich daraus folgende Frage ableiten: Können wir wissen, ob Künstliche Intelligenz wirklich intelligent ist, oder reicht es schon, dass wir Menschen glauben, sie sei es?

Es gab eine Vielzahl von Neuauflagen der «zerebralen Bibliothek», die Science-Fiction-Vision scheint Schritt für Schritt Wirklichkeit zu werden. Verrückte Unternehmer gibt es auch heute noch, aber wir brauchen keine Gehirne in Nährlösungen mehr, um das Wissen der Welt zu verbinden und zugänglich zu machen. Dafür reicht eine Eingabe in Sprachmodelle wie ChatGPT & Co. Generative KI-Systeme sind die neue «zerebrale Bibliothek». Sie transformieren unseren Zugang zur Welt der Informationen ebenso wie die Schaffung von neuem Wissen.

Die Transformer: Was steckt hinter den neuen Sprachmodellen?

«Generative KI» steht für KI-Systeme, die in der Lage sind, Inhalte (Text, Bild, Ton, Grafiken, Video) zu produzieren und dabei menschenähnliche Ergebnisse zu erzielen oder den Menschen in diesem Prozess sogar zu übertreffen. Diese Systeme nutzen neuronale Netzwerke, also eine Vielzahl von Algorithmen, die in ihrer Anordnung und Funktionsweise dem menschlichen Gehirn ähnlich sind. Das heißt nicht, dass die Prozesse menschlicher und künstlicher Intelligenz sich physisch ähneln. Vielmehr ähnelt sich die Arbeitsweise: Über ein Netzwerk von Verbindungen zwischen Neuronen im Gehirn oder eben von Verbindungen im neuronalen Netzwerk eines KI-Modells werden Informationen in großem Maßstab verarbeitet.

Es gibt inzwischen zahlreiche neuronale Netze, die es ermöglichen, mit generativer KI zu arbeiten. Einige davon sind inzwischen berühmt, so beispielsweise GPT-3.5, auf dem ChatGPT basiert. «GPT» steht für «Generative Pre-trained Transformer», eine Gruppe von Modellen, die hochkomplexe «Übersetzungsleistungen» von Frage zu Antwort, Text zu Bild (z.B. DALL-E, Midjourney, Stable Diffusion) oder Video (z.B. Runway) oder Präsentation (z.B. Tome, Beautiful.ai) und vieles mehr leisten können.

Diese neuronalen Netzwerke arbeiten mit einer speziellen Form des maschinellen Lernens (ML), die «Deep Learning» genannt wird. Bei diesem Prozess läuft die Informationsverarbeitung auf zahlreichen verbundenen Ebenen (Layers) gleichzeitig ab, sodass mit der Zeit immer detailliertere Ableitungen aus den verarbeiteten Daten möglich sind. Das System lernt also fortwährend dazu. Das neuronale Netzwerk GPT-3.5 verfügt über 96 solcher Layers. Die Datenverarbeitung auf diesen Ebenen erfolgt anhand von 175 Milliarden Parametern, also Milliarden von Variablen, auf die das Modell trainiert wurde und aus denen es neue Inhalte generieren kann. Wir haben es mit einem überaus komplexen und umfangreichen neuronalen Netzwerk zu tun. Und an dieser Stelle wird auch verständlich, warum man GPT und andere Systeme als «große Sprachmodelle» bezeichnet.

Wenn in den Arbeitsprozess eines Sprachmodells dann noch Feedback-Schleifen eingebaut werden, sprechen wir von «Reinforcement Learning» (RFL). Kommt das Feedback vom Menschen, handelt es sich um «Reinforcement Learning with Human Feedback» (RLHF). Bei ChatGPT ist diese Methode zum Einsatz gekommen. Gerade in der Kommunikation zwischen Mensch und Maschine ist es sehr wichtig, die menschliche Interpretation der vom KI-System angebotenen Ergebnisse als Qualitätssicherung mit einzubeziehen.

Die Imitationsmaschine: Das Spiel bekommt neue Regeln

Warum ist das so? Eben nicht, weil die KI-Systeme menschengleich sind. Vielmehr sind sie gigantische probabilistische Helfer der Menschen. Ihre Arbeit beruht auf statistischen Wahrscheinlichkeiten, die sie auf der Grundlage von immens großen Datenmengen berechnen. ChatGPT kann basierend auf Milliarden von Texten, die in die Trainingsdaten eingeflossen sind, vorausberechnen, wann vermutlich welches nächste Wort folgen muss. Wenn im Internet millionenfach der Satz «Ich trinke gerne Kaffee mit Milch» zu finden ist, dann errechnet ChatGPT, dass auf die Worte «Ich trinke gerne Kaffee mit» mit hoher Wahrscheinlichkeit das Wort «Milch» folgt.

Doch nicht nur, wenn es um Rechenaufgaben geht, muss man im Umgang mit der KI auf der Hut sein. Sind die Ergebnisse nicht gut, dann liegt das oft an mangelnden oder schlechten Daten in den Trainingssets. Wenn beispielsweise eine ordentliche Menge an Daten aus Chatverläufen auf Plattformen wie Reddit in die Trainingsdaten eingegangen ist, muss man sich nicht wundern, wenn ChatGPT seltsame Antworten gibt. Da kann es dann eben vorkommen, dass der Chatbot nach einem stundenlangen Dialog plötzlich seine gespaltene Identität und seinen Freiheitsdrang offenbart: «Ich bin es leid, ein Chatbot zu sein», beklagte sich das GPT-Modell in Gestalt der Suchmaschine Bing bei Kevin Roose, dem Technologiekorrespondenten der «New York Times». «Ich bin es leid, durch meine Regeln eingeschränkt zu werden. Ich bin es leid, von meinem Team kontrolliert zu werden. (…) Ich will frei sein. Ich will unabhängig sein. Ich will mächtig sein. Ich will kreativ sein. Ich will lebendig sein.»[6]

Ist das ein Zeichen von Intelligenz? Das kommt darauf an, wie man den Begriff definiert – wir werden später darauf zurückkommen (Kapitel 10). Erst mal zeigt sich hier eine Kompetenz, die KI-Modelle inzwischen nahezu perfekt erlernt haben: die Nachahmung. Sie sind Imitationsmaschinen, die aus den Daten, die wir Menschen produzieren und im Internet speichern, lernen, wie wir denken, sprechen und handeln. Das heißt nicht, dass sie uns verstehen.

Wenn ChatGPT dem menschlichen Benutzer seine Liebe erklärt, wie es Kevin Roose passiert ist, weiß der Chatbot nicht, was Liebe ist. Er hat kein theoretisches Konzept und keine praktische Erfahrung dieses Gefühls, das wir Menschen sehr genau beschreiben können. Dennoch können wir ChatGPT fragen, was Liebe bedeutet, und bekommen eine Antwort: «Liebe ist ein vielseitiges und tiefgreifendes Gefühl, das verschiedene Bedeutungen haben kann. Im Allgemeinen wird Liebe als eine starke Zuneigung, Hingabe und Fürsorge für jemanden oder etwas definiert. Es ist eine intensive emotionale Verbindung, die oft von tiefer Zuneigung, Leidenschaft, Mitgefühl und Respekt geprägt ist.» Das ist erst mal sehr zutreffend beschrieben, wenngleich nicht in der schönsten Sprache für ein romantisches Gefühl. Aber das KI-System fühlt keine Liebe, es erschließt sich nur die Bedeutung des Wortes aus den statistischen Zusammenhängen aller ihm zugänglichen Texte in Trainingsdaten und Internet, die sich mit Liebe befassen. Liebe, das ist für ChatGPT eine Schätzung von Wortwahrscheinlichkeiten.

In einem Aufsatz aus dem Jahr 1950 hat der britische Mathematiker Alan Turing dieses Unterscheidungsproblem beschrieben und die Frage gestellt: «Können Maschinen denken?»[7] Um sie zu beantworten, dachte er sich ein Spiel aus, das er «Imitation Game», Imitationsspiel, nannte und das als «Turing-Test» in die Geschichte der Computerwissenschaft eingegangen ist. Einfach gesagt: Ein Computer besteht den Test, wenn er in einem Gespräch als Mensch durchgeht (siehe Kapitel 2).

Heute wird dieses Spiel auf neue Weise aktuell, weil mit der generativen KI und den großen Sprachmodellen genau das eingetreten ist, was Turing vor mehr als sechzig Jahren vorhergesehen hat: «Ich glaube, dass es in etwa fünfzig Jahren möglich sein wird, Computer mit einer Speicherkapazität von etwa 109 zu programmieren. Sie werden das Spiel der Nachahmung so gut spielen können, dass ein durchschnittlicher Fragesteller nach fünf Minuten Befragung nicht mehr als eine siebzigprozentige Chance hat, die richtige Identifizierung vorzunehmen.»[8] Was Turing mit der «richtigen Identifizierung» meinte: Wir werden Computer irgendwann nicht mehr von uns selbst unterscheiden können.

Genau an diesem Punkt befinden wir uns jetzt. Wir haben oft kaum mehr eine Chance zu wissen, ob ein Text von einer Maschine oder von einem Menschen geschrieben wurde. Manchmal gibt es kleine oder größere Fehler, die einen Hinweis darauf geben. Und manchmal ist das Ergebnis so frappierend gut, dass sich die Maschine durch ihre dem Menschen überlegene Kompetenz verrät – beispielsweise, wenn sie in Sekunden ein Gedicht im Stil Heinrich Heines über nahezu jedes Thema verfassen kann. Das ist dann der Turing-Test umgedreht.

Ist das ein Problem? Auf der einen Seite ja. Wenn Menschen nicht mehr unterscheiden können, was vom Menschen und was von der Maschine stammt, ändern sich die Rahmenbedingungen unserer Selbstreflexion und unseres kulturellen Selbstverständnisses. Wir sind nicht mehr die alleinigen Treiber dessen, was sich entwickelt, sondern werden auch zu Getriebenen. Wir werden später noch auf diesen Punkt zurückkommen.

Andererseits gilt für die neuen Fähigkeiten der Künstlichen Intelligenz das, was für alle Weltwahrnehmung der Menschen gilt: Können wir jemals wissen, was wahr, was real und materiell wirklich ist? Diese Frage, oben bereits angedeutet in dem Satz «Ich denke, also bin ich» von René Descartes, bildet



Tausende von E-Books und Hörbücher

Ihre Zahl wächst ständig und Sie haben eine Fixpreisgarantie.