Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
KI? Von ihr drohen uns natürlich auch Gefahren, aber … es gibt so vieles, was uns begeistern sollte: personalisierter Unterricht für jedes Kind durch KI-Tutoren; Forscher finden Heilmittel für Krankheiten wie Alzheimer und Krebs; KI-Berater helfen den Menschen, sich in komplexen Systemen zurechtzufinden und ihre Ziele zu erreichen. Die KI-Insider Hoffman und Beato – der eine ein legendärer Silicon-Valley-Investor, der andere seit 30 Jahren journalistischer Chronist – bieten eine fantasievolle und positive Sicht auf die Möglichkeiten, die die KI der Menschheit eröffnet. In vielen Bereichen werden mit ihrer Hilfe Durchbrüche möglich, von denen wir heute nicht einmal zu träumen wagen. Ein Plädoyer für gesunden Optimismus in Sachen KI.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 360
Veröffentlichungsjahr: 2025
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Reid Hoffman · Greg Beato
SUPERAGENCY
REID HOFFMAN GREG BEATO
Wenn künstliche Intelligenzzum Alltag wird
Wie KI die ganze Menschheit auf ein neues Level heben wird
Die Originalausgabe erschien unter dem Titel
SUPERAGENCY – What Could Possibly Go Right with Our AI Future
ISBN 979-8-8933-1010-8
Copyright der Originalausgabe 2025:
Copyright © 2025 by Dallepedia, LLC
All Rights Reserved.
Published by arrangement with the original publisher, Authors Equity
Copyright der deutschen Ausgabe 2025:
© Börsenmedien AG, Kulmbach
Übersetzung: Börsenmedien AG, Sebastian Politz
Gestaltung Cover: Anna Lena Schramm
Gestaltung, Satz und Herstellung: Karla Sachs
Korrektorat: Merle Gailing
Druck: CPI books GmbH, Leck, Germany
ISBN 978-3-68932-020-1
eISBN 978-3-68932-021-8
Alle Rechte der Verbreitung, auch die des auszugsweisen Nachdrucks, der fotomechanischen Wiedergabe und der Verwertung durch Datenbanken oder ähnliche Einrichtungen vorbehalten.
Bibliografische Information der Deutschen Nationalbibliothek:
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über <http://dnb.d-nb.de> abrufbar.
Postfach 1449 • 95305 Kulmbach
Tel: +4992219051-0 • Fax: +4992219051-4444
E-Mail: [email protected]
www.plassen.de
www.facebook.com/plassenverlag
www.instagram.com/plassen_buchverlage
EINE ANMERKUNG ZUM TEXT
EINFÜHRUNG
KAPITEL 1 DIE MENSCHHEIT HAT DEN CHAT BETRETEN
KAPITEL 2 BIG KNOWLEDGE
KAPITEL 3 WAS KÖNNTE MÖGLICHERWEISE GUT LAUFEN?
KAPITEL 4 DER SIEGESZUG DER PRIVATEN GEMEINGÜTER
KAPITEL 5 TEST, TEST 1, 2, ∞
KAPITEL 6 INNOVATION BEDEUTET SICHERHEIT
KAPITEL 7 INFORMATIVES GPS
KAPITEL 8 GESETZE SIND PROGRAMMCODE
KAPITEL 9 VERNETZTE AUTONOMIE
KAPITEL 10 DIE VEREINIGTEN STAATEN VON A(I)MERIKA
KAPITEL 11 SIE KÖNNEN VON HIER AUS DORTHIN GELANGEN
DANKSAGUNGEN
ANMERKUNGEN
Dieses Buch ist eine Zusammenarbeit zwischen meinem Co-Autor Greg Beato und mir. Wir verwenden „wir“, wenn wir unsere gemeinsame Sichtweise darstellen. In Fällen, die sich auf Details aus meinem eigenen Leben beziehen, greifen wir auf „ich“ zurück.
Reid
Im Laufe der Geschichte haben neue Technologien regelmäßig Horrorvisionen von drohender Menschenfeindlichkeit und dem Zusammenbruch der Gesellschaft hervorgerufen. Der Druckerpresse, dem mechanischen Webstuhl, dem Telefon, dem Fotoapparat und dem Automobil wurden erhebliche Skepsis und manchmal sogar gewalttätiger Widerstand entgegengebracht, bevor sie sich als Grundpfeiler des modernen Lebens etabliert hatten.
Im 15. Jahrhundert argumentierten Schwarzseher, dass der Buchdruck die Gesellschaft dramatisch destabilisieren würde, indem er Ketzerei und Fehlinformationen ermöglichte und die Autorität des Klerus und der Gelehrten untergrub. Das Telefon wurde als ein Gerät charakterisiert, das die Intimität persönlicher Besuche verdrängen und eine zu große gegenseitige Offenheit unter Freunden bewirken könnte.1 In den ersten Jahrzehnten des Aufstiegs des Autos behaupteten Kritiker, das Auto zerstöre das Familienleben: Unverheiratete Männer würden lieber auf ein Modell T sparen, als zu heiraten und Kinder zu bekommen, und verheiratete Männer würden sich scheiden lassen, um dem Konsumdruck zu entgehen, den das Auto mit sich brachte.2
Dieselbe Art von Schwarzmalerei gab es in den 1950er-Jahren im Rahmen der gesellschaftsübergreifenden Automatisierung, als immer ausgefeiltere Maschinen dramatische Auswirkungen auf Fabriken und Bürogebäude gleichermaßen hatten und die Gesamtzahl der beschäftigten Bäcker, Metzger, Arbeiter in der Automobilindustrie und Statistiker des US Census Bureaus schrumpfte. Im Jahr 1961 berichtete das Nachrichtenmagazin Time, dass Arbeitsexperten davon ausgingen, dass ohne das Eingreifen von Unternehmen, Gewerkschaften und der Regierung die Zahl der „Dauerarbeitslosen“ durch die Automatisierung weiter ansteigen würde.3 Mitte der 1960er-Jahre führten Unterausschüsse des Kongresses regelmäßig Anhörungen über das Potenzial der Großrechner durch, die Privatsphäre, den freien Willen und die Fähigkeit des Durchschnittsbürgers, sein Leben selbst zu gestalten, zu bedrohen.
Die Arbeitslosenquote in den USA ist heute niedriger als 1961. Der durchschnittliche US-Bürger lebt in einer Welt, in der PCs, das Internet und Smartphones ein neues Zeitalter des Individualismus und der Selbstbestimmung eingeläutet haben, und nicht etwa eine erdrückende autoritäre Unterordnung oder das Ende der Menschheit. Doch mit dem Aufkommen und der fortschreitenden Entwicklung hochleistungsfähiger künstlicher Intelligenz (KI) bleiben die bekannten Ängste vor der Technologie nicht nur bestehen, sondern nehmen zu.
Selbst unter den KI-Entwicklern gibt es Stimmen, die glauben, dass künftige superintelligente KIs einen Grad der Bedrohung für die Menschheit darstellen könnten, der bis zum Aussterben reicht. Andere weisen darauf hin, dass Menschen, die in böser Absicht handeln, zumindest in der Lage sein werden, KI zu nutzen, um katastrophale Schäden anzurichten, lange bevor die Maschinen selbst einen einseitigen Krieg gegen die Menschheit führen. Weitere Befürchtungen betreffen die massive Verdrängung von Arbeitsplätzen, das völlige Obsoletwerden des Menschen und eine Welt, in der eine winzige Clique von Tech-Eliten die gegebenenfalls vorhandenen Vorteile der KI für sich beansprucht.
Die Weltuntergangswarnungen sind dieses Mal anders, betonen diese Beobachter, weil die Technologie selbst dieses Mal anders ist. Die KI kann bereits zentrale Aspekte der menschlichen Intelligenz simulieren. Viele Forscher glauben, dass sie bald die Fähigkeit erlangen wird, mit vollständiger und äußerst ausgefeilter Autonomie zu handeln, und zwar in einer Weise, die sich nicht an menschlichen Werten oder Absichten orientiert.
Roboter und andere hochintelligente Systeme sind in Science-Fiction-Romanen, Comics und Filmen seit Langem als unsere dunklen Doppelgänger und Widersacher präsent. Wenn die heutigen hochmodernen KI-Systeme wie wohlwollende, aber kühle und rationale Studenten auftreten, ist es nur natürlich, dass sie uns an HAL aus 2001: Odyssee im Weltraum, an die Borg aus Star Trek oder – in einer weniger ich-bewussten und offenkundig bedrohlichen Form – an den unerbittlichen Killerroboter aus The Terminator erinnern. Diese Narrative haben unsere schlimmsten Zukunftsvisionen sehr lange geprägt.
Aber sind das die richtigen Narrative? Die Zukunft ist bekanntermaßen schwer vorherzusehen – sowohl für Pessimisten als auch für Optimisten. Die dauerhafte Massenarbeitslosigkeit, die Arbeitsmarktexperten in den frühen 1960er-Jahren voraussahen, trat nicht ein, und es gab auch nicht Die Jetsons und ihre fliegenden Autos – zumindest noch nicht.
So schwer es auch ist, die Zukunft genau vorherzusagen, so schwer ist es auch, sie aufzuhalten. Die Welt verändert sich ständig. Der Versuch, die Geschichte aufzuhalten, indem man den Status quo festschreibt – durch Verbote, Unterbrechungen und andere Bemühungen, bis ins kleinste Detail zu regeln, wer was tun darf –, wird uns Menschen nicht dabei helfen, die Herausforderungen und Chancen zu meistern, die die KI bietet.
Das liegt daran, dass nicht nur Zusammenarbeit, sondern auch Wettbewerb unser Leben maßgeblich bestimmt. Wir formieren uns zu Gruppen jeglicher Art und auf allen Ebenen, um unsere Bemühungen zu verstärken, und setzen unsere kollektive Macht oft gegen andere Teams, andere Unternehmen oder andere Länder ein. Sogar innerhalb unserer eigenen Gruppen von gleichgesinnten Verbündeten kommt es aufgrund unterschiedlicher Werte und Ziele zu Wettbewerb. Und im Allgemeinen ist jede Gruppe und Untergruppe geschickt darin, die Durchsetzung von Eigeninteressen im Namen des Allgemeinwohls zu begründen.
Die Koordinierung auf Gruppenebene, um eine neue Technologie zu verbieten, einzuschränken oder auch nur einzudämmen, ist schwierig. Auf staatlicher oder nationaler Ebene ist dies noch schwieriger. Etwas global zu koordinieren ist wie das Hüten von Katzen – wenn die Katzen bewaffnet wären, zu Stämmen gehörten, verschiedene Sprachen und Götter hätten und Träume für die Zukunft hätten, die über ihre nächste Mahlzeit hinausgingen.
Je leistungsfähiger die Technologie ist, desto schwieriger wird das Koordinationsproblem, und das bedeutet, dass man nie die gewünschte Zukunft erreichen wird, indem man einfach die Zukunft verbietet, die man nicht will. Sich zu weigern, die Zukunft aktiv zu gestalten, funktioniert nie, und das gilt besonders jetzt, da das andere Ende der Welt nur ein paar Klicks entfernt ist. Andere Akteure haben andere Zukunftsvorstellungen im Sinn.
Was sollten wir tun? Grundsätzlich besteht der sicherste Weg, eine schlechte Zukunft zu verhindern, darin, auf eine bessere Zukunft zuzusteuern. Eine solche Vorgehensweise erschwert es, schlechtere Ergebnisse zu erzielen.
Aus Tausenden Jahren Erfahrung wissen wir, dass der Mensch eine Technologie erschaffen wird, wenn er sie erschaffen kann. Wie ich bereits an anderer Stelle geschrieben habe, unter anderem in meinem letzten Buch Ideen auf Knopfdruck, sind wir mindestens ebenso sehr Homo techne wie Homo sapiens. Wir schaffen ständig neue Werkzeuge, um unsere Fähigkeiten zu erweitern und die Welt nach unseren Vorstellungen zu gestalten. Im Gegenzug formen diese Werkzeuge letztendlich auch uns. Dies deutet darauf hin, dass Humanismus und Technologie, die so oft als gegensätzliche Kräfte dargestellt werden, in Wirklichkeit integrative Kräfte sind. Jede neue Technologie, die wir erfunden haben – von der Sprache über Bücher bis hin zum Mobiltelefon –, hat definiert, neu definiert, vertieft und erweitert, was es bedeutet, ein Mensch zu sein.
Wir sind die Initiatoren dieses Prozesses, aber wir können ihn nicht vollständig kontrollieren. Einmal in Gang gesetzt, üben neue Technologien ihre eigene Anziehungskraft aus: Eine Welt, in der es Dampfkraft gibt, funktioniert anders als die Welt, die ihr vorausging. Genau aus diesem Grund sind Verbote oder Beschränkungen allein niemals ausreichend: Sie bedeuten Stillstand und Widerstand in dem Moment, in dem wir auf der Suche nach der bestmöglichen Zukunft vorwärtsdrängen sollten.
Manche würden dies als technologischen Determinismus bezeichnen, aber wir sehen es als eine Art techno-humanistischen Kompass an. Ein Kompass hilft uns bei der Wahl eines Weges, aber im Gegensatz zu einer Blaupause oder einem unveränderlichen Manifest ist er dynamisch und nicht bestimmend. Er hilft uns, uns zurechtzufinden, uns neu zu orientieren und unseren Weg zu finden.
Entscheidend ist auch, dass dieser Kompass ausdrücklich humanistisch ist, denn letztlich wirkt sich jede größere technologische Innovation auf die menschliche Handlungsfähigkeit aus – unsere Fähigkeit, Entscheidungen zu treffen und Einfluss auf unser Leben zu nehmen. Ein technohumanistischer Kompass zielt aktiv darauf ab, uns Wege aufzuzeigen, auf denen die von uns geschaffenen Technologien die individuelle und kollektive Handlungsfähigkeit auf breiter Basis erweitern und verstärken.
Bei der KI ist diese Orientierung besonders wichtig. Denn was passiert mit der menschlichen Handlungsfähigkeit, wenn diese Systeme und Geräte, denen oft eine eigene Handlungsfähigkeit zugeschrieben wird, in der Lage sind, uns vollständig zu ersetzen? Sollten wir diese Möglichkeit nicht so weit wie möglich hinauszögern? Aus techno-humanistischer Sicht ist es genau umgekehrt: Unser Gefühl für die Dringlichkeit muss der Geschwindigkeit des Wandels entsprechen. Es kann uns nur gelingen, die menschliche Handlungsfähigkeit in den Vordergrund zu stellen, wenn wir uns aktiv an der Definition und Entwicklung dieser Technologien beteiligen.
In erster Linie bedeutet dies, eine Zukunft anzustreben, in der Milliarden von Menschen auf der ganzen Welt einen gleichberechtigten, praktischen Zugang erhalten, um selbst mit diesen Technologien zu experimentieren, und zwar auf eine Weise, die sie selbst bestimmen. Es bedeutet auch, eine Zukunft anzustreben, in der die wachsenden Fähigkeiten der KI uns dabei helfen, die Bedrohungen durch Atomkrieg, Klimawandel, Pandemien, Ressourcenverknappung und vieles mehr zu verringern.
Darüber hinaus bedeutet es, diese Zukunft zu verfolgen, auch wenn wir wissen, dass wir nicht in der Lage sein werden, jede Entwicklung oder Konsequenz, die uns erwartet, vorherzusagen oder zu kontrollieren. Niemand kann sich anmaßen, das genaue Ziel der Reise, auf der wir uns befinden, oder die spezifischen Konturen des Geländes, das dort existiert, zu kennen. Die Zukunft ist nichts, was Experten und Regulierungsbehörden akribisch entwerfen können – sie ist etwas, das die Gesellschaft gemeinsam erforscht und entdeckt. Deshalb ist es am sinnvollsten, wenn wir lernen, wie es geht, und unseren techno-humanistischen Kompass nutzen, um den Kurs zu korrigieren. Kurz gesagt ist dies die „iterative Entwicklung“, der Begriff, den OpenAI, der Entwickler von ChatGPT, verwendet, um seine eigene Methode zu beschreiben, wie das Unternehmen seine Produkte weltweit vermarktet. Es ist ein Konzept, das mein Co-Autor Greg Beato und ich in diesem Buch erforschen und dem wir uns besonders widmen werden.
Als langjähriger Gründer und Investor in Technologieunternehmen ist meine Sichtweise unweigerlich durch den technologiegetriebenen Fortschritt und die positiven Ergebnisse geprägt, an denen ich im Laufe meiner Karriere beteiligt war. Ich war Gründungsmitglied des Vorstands von PayPal und gehörte zum Führungsteam, als Ebay das Unternehmen im Jahr 2002 kaufte. Zudem war ich Mitbegründer von LinkedIn und sitze seit 2017, nach der Übernahme von LinkedIn, im Vorstand von Microsoft.
Ich war auch einer der ersten philanthropischen Unterstützer von OpenAI, als es 2015 als gemeinnütziges Forschungslabor gegründet wurde. Im Jahr 2019 leitete ich die erste Investitionsrunde, als OpenAI eine gewinnorientierte Kommanditgesellschaft zur Unterstützung seiner laufenden Entwicklungsbemühungen gründete. Von 2019 bis Anfang 2023 war ich im Vorstand des Unternehmens. Zusammen mit Mustafa Suleyman, dem Mitbegründer von DeepMind, habe ich 2022 eine gemeinnützige Gesellschaft namens Inflection AI mitbegründet, die ihren eigenen Konversationsagenten, Pi, entwickelt hat. In meiner Funktion bei der Risikokapitalfirma Greylock habe ich in andere KI-Unternehmen investiert. In meinem Podcast Possible spreche ich regelmäßig mit einer Vielzahl von Innovatoren über die Auswirkungen, die KI auf ihre Bereiche haben wird – wobei unsere Gespräche von einem techno-humanistischen Kompass geleitet werden. Außerdem unterstütze ich aus philanthropischen Gründen das Institute for Human-Centered Artificial Intelligence (HAI) der Stanford University und das Alan Turing Institute, das staatliche Institut für Datenwissenschaft und künstliche Intelligenz im Vereinigten Königreich.
Ich bin mir bewusst, dass einige Leute der Ansicht sein könnten, dass solche Qualifikationen meine Sichtweise auf KI disqualifizieren. Dass mein Optimismus nur ein Hype ist. Dass mein Idealismus in Bezug darauf, wie wir KI nutzen könnten, um umfassende neue Vorteile für die Gesellschaft zu schaffen, nur ein Versuch ist, für mich selbst einen wirtschaftlichen Ertrag zu erzielen. Dass meine Rolle als Gründer, Investor, Berater und philanthropischer Unterstützer vieler auf KI fokussierter Unternehmen und Institutionen einen ständigen Anreiz für mich schafft, die Vorzüge überzubewerten und die Gefahren und Nachteile herunterzuspielen.
Ich behaupte, dass das Gegenteil der Fall ist: Ich beschäftige mich intensiv mit dieser Technologie und setze mich für ihren Erfolg ein, weil ich glaube, dass sie tiefgreifende positive Auswirkungen auf die Menschheit haben kann. Mein Engagement auf diesem Gebiet hat dazu geführt, dass ich die Fortschritte aus erster Hand miterlebt habe. Das hat mich in meinem Engagement bestärkt, und so habe ich weiterhin in eine wachsende Zahl von Unternehmen und Organisationen investiert und sie unterstützt. Ich bleibe wachsam gegenüber potenziellen Gefahren und Schattenseiten und bin bereit, mich gegebenenfalls anzupassen, eben weil ich möchte, dass diese Technologie auf eine Art und Weise erfolgreich ist, die der Gesellschaft auf breiter Ebene zugutekommt.
Ein Grund, warum der iterative Einsatz bei Pioniertechnologien wie der künstlichen Intelligenz so sinnvoll ist, liegt darin, dass er der Flexibilität den Vorzug gegenüber einem großen Gesamtplan gibt. Es ist einfacher, das Tempo, die Richtung und sogar die Strategie zu ändern, wenn neue Erkenntnisse die Notwendigkeit dafür signalisieren.
In der Zwischenzeit präsentieren wir Ihnen unsere Argumente in diesem Buch.
Vor rund 2.400 Jahren kritisierte Sokrates in Platons Phaedrus das geschriebene Wort wegen seiner mangelnden Dynamik und wegen der Art und Weise, wie es Wissen für jedermann zugänglich machte:
Weißt du, Phaedrus, die Schrift hat eine seltsame Eigenschaft mit der Malerei gemeinsam. Die Sprösslinge der Malerei stehen da, als ob sie lebendig wären, aber wenn man sie etwas fragt, schweigen sie feierlichst. Das Gleiche gilt für die geschriebenen Worte. Man könnte meinen, sie sprächen, als ob sie etwas verstehen würden, aber wenn man das Gesagte infrage stellt, weil man mehr erfahren möchte, bedeutet es für immer genau das Gleiche. Wenn sie einmal niedergeschrieben wurde, ist jede Rede überall in Umlauf und erreicht ohne Unterschied diejenigen, die Verständnis haben, nicht weniger als diejenigen, die nichts damit zu tun haben, und sie weiß nicht, zu wem sie sprechen soll und zu wem nicht.4
Für Sokrates bedeutete die Fixierung seiner Gedanken in einem schriftlichen Text offenbar einen Verlust an Handlungsfähigkeit. Hätte er seine Lehren selbst in Büchern oder besser gesagt in Schriftrollen, der herrschenden Technologie seiner Zeit, niedergeschrieben, hätte er nicht kontrollieren können, wer sie liest. Er wäre nicht immer parat gewesen, um seine Denkweise auf den neuesten Stand zu bringen, Nuancen im Text zu erläutern oder Fehldeutungen zu korrigieren. Folglich war das persönliche Gespräch die von ihm bevorzugte Technologie zur Übermittlung von Ideen.
Aber offensichtlich haben Generationen von Autoren und Lesern anders gedacht. Warum? Weil geschriebene Werke letztlich die Handlungsfähigkeit von Autoren und Lesern erhöhten und Letztere in die Lage versetzten, sich mit Ideen von Autoren auseinanderzusetzen – von ihnen zu lernen, sie zu modifizieren, zu erweitern und, ja, vielleicht sogar falsch zu interpretieren oder sich anzueignen –, mit denen sie sonst vielleicht nie in Berührung gekommen wären.
Mit der Verbesserung der Drucktechniken entwickelten sich Bücher zu einer transformativen globalen Ressource. Sie waren überall in Umlauf, erreichten ohne Unterschied jedermann und fungierten als frühe Mobilitätsmaschinen, die die menschliche Erkenntnis von den menschlichen Gehirnen entkoppelten, das Wissen demokratisierten, den menschlichen Fortschritt beschleunigten und Einzelpersonen und ganzen Gesellschaften die Möglichkeit boten, über Zeit und Raum hinweg von den tiefgreifendsten und wirkungsvollsten menschlichen Erkenntnissen und Innovationen zu profitieren.
Natürlich gibt es heute unzählige andere Möglichkeiten, Informationen zu verbreiten, und wir werden auch viele davon nutzen, um die Ideen in Superagency zu vermitteln. Neben den üblichen Podcasts und sozialen Medien werden wir mit KI-generierten Videos, Audios und Musik experimentieren, um die Hauptthemen, die wir hier erforschen, zu erweitern und näher zu erläutern. Besuchen Sie unsere Website Superagency.ai, um mehr darüber zu erfahren.
Aber wir beginnen mit einem Buch – zum Teil als Hommage an die grundlegende Wahrheit, dass Technologien, die auf den ersten Blick oft ausgesprochen fehlerhaft und sogar menschenfeindlich erscheinen, am Ende meist genau das Gegenteil bewirken.
Als sich das Jahr 2022 dem Ende zuneigte, bewegten sich die Menschen auf der ganzen Welt nach wie vor auf den verschlungenen Pfaden der postpandemischen Erholung. Umfragen zeigten, dass die Inflation Covid-19 als größte globale Sorge abgelöst hatte.1 Die Lebensmittelpreise verharrten auf Rekordhöhen. In vollem Gange war aber auch die Rückkehr zur Normalität. Das Beschäftigungswachstum und der Anstieg der durchschnittlichen Stundenlöhne für den Monat November übertrafen die Schätzungen bei Weitem.2 Die Nachfrage nach Tickets für die Konzerttournee von Taylor Swift war so groß, dass die Systeme von Ticketmaster unter der Last von 14 Millionen Fans, die gleichzeitig Karten kaufen wollten, zusammenbrachen.
Doch auch die Tech-Branche selbst hatte einige Schwierigkeiten, die kumulativen Auswirkungen des Rückgangs der Werbeausgaben, die veränderte Stimmung der Investoren und die sich verändernden Nutzergewohnheiten abzuschütteln. Am 9. November entließ Meta, das Unternehmen, das früher unter dem Namen Facebook bekannt war, 11.000 Mitarbeiter – der größte Personalabbau aller Zeiten. Zwei Tage später meldete FTX, die auf den Bahamas ansässige Kryptowährungsbörse, Insolvenz an, worauf Anschuldigungen wegen massiven Betrugs und Missbrauchs von Kundengeldern folgten. Die Nachricht erschütterte das gesamte Ökosystem der Kryptowährungen und vernichtete Milliarden an Marktwert. Am 14. November setzten sich die schlechten Nachrichten fort, als berichtet wurde, dass Amazon wie Meta mit beispiellosen Kündigungen begonnen hatte und in den kommenden Wochen mindestens 10.000 Angestellte entlassen werden sollten.
Zum Teil waren diese negativen Folgen einfach eine Korrektur der sprunghaften Zunahme von Einstellungen, Umsätzen und Börsenwerten in der Technologiebranche, die durch die Pandemie und die aufgestaute Verbrauchernachfrage ausgelöst worden war. Sie waren aber auch eine klare Widerlegung der anhaltenden Behauptung, Big Tech könne die Märkte vollständig kontrollieren und das Verbraucherverhalten nach Belieben manipulieren.
In den 2010er-Jahren wurde dieses Narrativ praktisch zum Evangelium. Durch süchtig machende Designpraktiken und ein ganzes Arsenal an Techniken zur Erlangung von Aufmerksamkeit haben Unternehmen wie Alphabet (alias Google) und Meta die dunkle Kunst der Maximierung des Engagements nahezu perfektioniert und Millionen von Nutzern in digitalen Höllen des Doomscrollings, Rage-Tweetings, Shitpostings, Rabbitholings, Thirst-Trappings, Hate-Readings, Group-Shamings und Self-Retweetings gefangen.
Aber keine der angeblich unwiderstehlichen Taktiken von Meta hatte es geschafft, viele Menschen in das Metaverse zu locken, seine milliardenschwere Bemühung, eine riesige virtuelle Welt zu schaffen, in der Nutzer in immersiven 3D-Umgebungen arbeiten, spielen und Kontakte knüpfen können. Und während Risikokapitalgeber aus dem Silicon Valley Milliarden in Blockchain-Start-ups und andere Kryptowährungsprojekte steckten, hatten die Entwickler dieser Technologien den Code noch nicht geknackt, um dezentralisierte Finanzsysteme für Mainstream-Nutzer so unverzichtbar zu machen, wie es das Web, die Suche, E-Mail, mobile Computer, Textnachrichten und soziale Medien in früheren Wellen digitaler Innovationen schnell geworden waren.
Am letzten Tag des Novembers, nach einem Monat, der sich für die Tech-Industrie zu einem einzigen Desaster entwickelt hatte, stellte Open-AI, ein in San Francisco ansässiges Forschungslabor mit rund 375 Mitarbeitern, sein neuestes Produkt vor – ohne Vorankündigung und ohne jeden Hype. „Versuchen Sie, mit ChatGPT zu sprechen, unserem neuen KI-System, das für Dialoge optimiert ist“, twitterte der offizielle X.com-Account des Labors3 um 10:02 Uhr. „Ihr Feedback wird uns helfen, es zu verbessern.“
Der Mitbegründer und CEO von OpenAI, Sam Altman, war in seinem ersten Tweet4 über ChatGPT ähnlich vorsichtig: „Sprachschnittstellen werden eine große Sache sein, denke ich. Sprechen Sie mit dem Computer (mit Ihrer Stimme oder per Text) und erhalten Sie, was Sie wollen, und zwar für immer komplexere Definitionen von ‚wollen‘! Dies ist eine frühe Demo dessen, was möglich ist (mit noch zahlreichen Einschränkungen – es handelt sich weitgehend noch um eine Forschungsversion).“
Wie der Name schon andeutete, war ChatGPT ein Chatbot – nicht gerade die erste Wahl vieler Menschen, um zu einem Erfolgsprodukt zu werden, wie es einst Pokémon Go oder sogar die Juicero-Saftpresse waren. Während der meisten Zeit ihres Daseins im Internet, wo sie in der Regel im Kundendienst eingesetzt wurden, funktionierten Chatbots so schlecht, dass der Durchschnittskunde, der eine Anleitung für die Stornierung eines Onlinekaufs suchte, es immer noch vorzog, 20 Minuten in der Warteschleife zu warten, um mit jemandem zu sprechen, der sich anhörte, als würde er von einem Callcenter auf dem Grund eines Swimmingpools auf dem Mars antworten.
Aber ChatGPT war anders. Ganz anders. Und dieser Unterschied war sofort offensichtlich. ChatGPT war beeindruckend sachkundig, verblüffend vielseitig, überzeugend menschlich und konnte eine leicht verständliche Erklärung der Quantenmechanik liefern. Es konnte Sonette über den Verbraucherpreisindex verfassen, wenn Sie das wollten. Es konnte Ihnen bei der Fehlersuche im Code Ihrer Programmiersprache Python helfen. ChatGPT machte nicht immer alles richtig, aber selbst seine Fehler, die gemeinhin als „Halluzinationen“ bezeichnet werden, lösten Staunen und Faszination aus.
ChatGPT zog ohne jeden Marketingaufwand innerhalb von fünf Tagen eine Million Nutzer an. Irgendwie schien es, als wären aus dieser einen Million Menschen zwei Millionen Journalisten geworden, die über ihre Erfahrungen berichteten – und da begann das Interesse an ChatGPT regelrecht in die Höhe zu schnellen. In nur zwei Monaten zog es 100 Millionen Nutzer an5 und sorgte für so viel Aufregung, Ehrgeiz und FOMO in der Tech-Branche, dass es eigentlich eine Belobigung vom Federal Trade Commission’s Bureau of Competition hätte bekommen müssen.
Der CEO von Alphabet, Sundar Pichai, schickte eine Alarmmeldung an alle Googler, in der er ankündigte, dass nun für das gesamte Unternehmen der Startschuss in Sachen KI gefallen sei. Microsoft, das drei Jahre zuvor in OpenAI investiert hatte, fing an, das Wort Copilot, seinen KI-Assistenten, häufiger zu erwähnen als ein Schulungshandbuch für Fluggesellschaften. Mark Zuckerberg kündigte an, dass Meta eine neue hochrangige Produktgruppe für generative KI geschaffen habe, um die Bemühungen des Unternehmens in diesem Bereich „anzukurbeln“.6Newcomer und Emporkömmlinge wie Anthropic, Midjourney, Hugging Face und Replika trieben die KI-Entwicklung in einer Weise voran, dass die Giganten nur schwer mithalten konnten. Selbst Forschungsarbeiten mit Titeln wie „Quantenverschränkung neuronaler Netze in mehrdimensionalen latenten Räumen“ konnten auf X.com unauffällig viral gehen.
Angesichts dieser neuen Bedingungen vollzog sich ein Stimmungsumschwung um 180 Grad. Jahrelang vor der Veröffentlichung von ChatGPT hatten die größten Kritiker von Big Tech darauf bestanden, dass kartellrechtliche Maßnahmen notwendig seien, um dem einst so dynamischen US-Technologiesektor neue Wettbewerbskraft zu verleihen. Jetzt behaupten dieselben Kritiker, dass die Innovation zu schnell vonstattenginge und außer Kontrolle geraten sei. Im März 2023 veröffentlichte eine gemeinnützige Organisation namens Future of Life Institute einen offenen Brief, in dem sie „alle KI-Labore“ aufforderte, „das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens sechs Monate zu unterbrechen“.7 Mehr als 33.000 Menschen, darunter viele führende KI-Industrievertreter und -Technologen, unterzeichneten den Brief. Ihre Stimmung war düster, ihr Drängen spürbar. Der Justizausschuss des Senats nahm dies zur Kenntnis und führte im Laufe des Jahres mehrere Anhörungen zur KI-Aufsicht durch.
Ein halbes Jahr ging ins Land, dann ein weiteres halbes Jahr. Die Entwickler setzten ihre Arbeit fort und die Innovationen gingen weiter. OpenAI veröffentlichte weiterhin Updates für GPT-4, das ChatGPT zugrunde liegende Modell, das bei komplexen Aufgaben und Problemlösungen Spitzenleistungen erbrachte und die Fähigkeit erlangte, Bilder zu analysieren und dazu Feedback zu geben. Anthropics Claude 2 erreichte ein neues Niveau an Faktengenauigkeit und erweiterte den Umfang seines Kontextes, was bedeutete, dass es den Kontext in Eingabetexten von bis zu 75.000 Wörtern verarbeiten und nachverfolgen konnte. Wenn Sie die vollständige und ungekürzte Fassung von H. G. Wells’ The War of the Worlds in 20 Bulletpoints zusammenfassen wollten, konnte Claude das für Sie übernehmen.
Dennoch blieben viele der laufenden Herausforderungen bestehen. Konversationsagenten wie ChatGPT und Claude basieren auf großen Sprachmodellen – LLMs, Large Language Models –, einer speziellen Art von maschinellem Lernen, die für Sprachverarbeitungsaufgaben entwickelt wurde. LLMs wie GPT-4 verarbeiten und generieren Sprache mithilfe einer sogenannten neuronalen Netzwerkarchitektur, bei der mehrere Schichten von Knoten eine komplexe Kaskade von miteinander verbundenen Berechnungen durchführen. Jeder Knoten in einer Schicht nimmt Eingaben von der vorherigen Schicht auf, führt mathematische Operationen durch und gibt das Ergebnis an die nächste Schicht weiter. Auch die sogenannten Parameter spielen in diesem Prozess eine zentrale Rolle, da sie die Stärke der Verbindungen zwischen den Knoten bestimmen.
In einem Prozess, der als Pretraining bekannt ist, lernen LLMs Assoziationen und Korrelationen zwischen Token – Wörtern oder Wortfragmenten – durch das Durchsuchen einer riesigen Menge von Text. In einem LLM funktioniert jeder Parameter wie ein Einstellknopf, und in den größten Modellen von heute gibt es Hunderte Milliarden davon. Durch einen iterativen Prozess der Anpassung dieser Parameter über alle Knoten im Netzwerk verstärkt oder reduziert das Modell die Verbindungen zwischen den Token in seinen Trainingsdaten und beginnt, komplexe Muster in der Sprache zu erkennen und zu reproduzieren.
Das bedeutet zum Teil, dass LLMs niemals eine Tatsache kennen oder ein Konzept so verstehen, wie wir es tun. Jedes Mal, wenn Sie einem LLM eine Frage stellen oder ihn zu einer Handlung auffordern, bitten Sie ihn einfach darum, eine Vorhersage darüber zu treffen, welche Token am wahrscheinlichsten auf die Token folgen, die Ihre Aufforderung in einer kontextuell relevanten Weise enthalten. Und sie machen nicht immer korrekte oder angemessene Vorhersagen.
Durch die Ausweitung von Pretraining-Datensätzen, die Feinabstimmung der Modellleistung auf aufgabenspezifischere Datensätze und andere Maßnahmen versuchen die Entwickler, ihre Modelle genauer und weniger anfällig für unerwünschte Ergebnisse zu machen. Je leistungsfähiger die Modelle werden, desto ausgefeilter wird ihr simuliertes „Bewusstsein“ für die Welt. So erkennen sie beispielsweise, dass eine Person, die sagt: „Ich bin so hungrig, ich könnte ein Pferd essen“, eine übertriebene Sprache verwendet, um eine ausdrucksstarke Wirkung zu erzielen, und nicht nach Pferderezepten fragt.
Aber selbst wenn es den Anschein hat, dass die Modelle über ein dem menschlichen Verstand ähnliches Denken verfügen, tun sie das nicht. Stattdessen machen sie statistisch wahrscheinliche Vorhersagen in Bezug auf Sprachmuster. Das bedeutet, dass sie manchmal Fehler machen. Sie können sich unvorhersehbar verhalten. Wenn Modelle falsche Informationen oder irreführende Ergebnisse erzeugen, die nicht genau die Fakten, Muster oder Assoziationen widerspiegeln, die in ihren Trainingsdaten begründet sind, sagt man, dass sie „halluzinieren“ – das heißt, sie „sehen“ etwas, das nicht wirklich da ist.*
Das bedeutet, dass ein Modell möglicherweise eine falsche Antwort auf eine Frage gibt, auf die es eine richtige Antwort gibt. Es kann völlig neue „Fakten“ erfinden, wie Namen, Daten oder Ereignisse, die keine Grundlage in der Realität haben. Es kann Informationen liefern, die zwar korrekt sind, aber keine kontextuelle Relevanz für eine bestimmte Benutzeranfrage haben. Schließlich kann es Ergebnisse erzeugen, die logisch inkonsistent oder zusammenhanglos sind.
Zudem mag die Abhängigkeit eines Modells von Daten und Quantifizierung den Anschein von Objektivität oder Neutralität erwecken, aber es ist weder objektiv noch neutral. Stattdessen wird es von menschlichen Entwicklern und Institutionen geschaffen, die Entscheidungen darüber treffen, welche Daten gesammelt werden sollen, wie diese Daten verarbeitet werden sollen, für welchen Zweck oder welche spezifische Funktion ein Modell optimiert werden soll, wie diese Funktion am besten mit menschlichen Werten und Absichten in Einklang gebracht werden kann und vieles mehr.
Wenn die Trainingsdaten eines Modells sexistische oder rassistische Äußerungen enthalten – was passieren kann, wenn riesige Mengen an Text aus dem Internet gescannt und nur wenig oder gar nicht zusätzlich gefiltert, überprüft oder verfeinert werden –, dann könnte das Modell sexistische oder rassistische Ergebnisse produzieren. Wenn ein Entwickler, der eine KI für medizinische Diagnosen entwickelt, die Komplexität bestimmter medizinischer Bedingungen nicht vollständig erfasst, könnte dies zu Modellen führen, die bei unterrepräsentierten Patientengruppen oder seltenen Krankheiten schlecht abschneiden.
Ein weiteres Problem ist die oft undurchsichtige Funktionsweise großer Sprachmodelle, ein Merkmal, das als „Blackbox“-Phänomen bekannt ist. Dieses Phänomen tritt auf, wenn komplexe neuronale Netze, die Hunderte Milliarden Textmuster auf extrem granulare Weise verarbeiten, Muster erkennen, die von menschlichen Beobachtern nur schwer zu erkennen sind – was es schwierig oder sogar unmöglich macht, die Ergebnisse eines Modells zu erklären oder seinen Entscheidungsprozess nachzuvollziehen.
Zwar wenden die Entwickler verschiedene Techniken an, um diese Probleme abzumildern, doch die grundlegende Einschränkung, die ihnen allen zugrunde liegt, bleibt dieselbe. Bis jetzt haben LLMs keine wirkliche Fähigkeit zu vernünftigem Denken, keine gelebte Erfahrung und kein fundiertes Modell der Welt. Sie sagen immer nur das nächste Token in einer Sequenz voraus, basierend auf Mustern, die sie aus ihren Trainingsdaten gelernt haben.
Selbst wenn ChatGPT auf einem hochmodernen Sprachmodell aufbaut, halluzinieren ChatGPT und seine Kollegen also weiterhin. Sie können sich bei dem Versuch, relativ einfache Rätsel zu lösen, immer noch selbst in die Enge treiben. Manchmal erzeugen sie in einigen Fällen verzerrte Ergebnisse und in anderen Fällen kontextuell irrelevante Ergebnisse.
Und das wird sich auch nie ganz ändern, behaupten Skeptiker. Während die Entwickler noch größere Hochleistungsrechner bauen, auf denen sie ihre Modelle mit Billionen von Parametern trainieren können, und die Trainingsdatensätze um multimodale Eingaben wie Bilder, Videos und strukturierte Daten erweitern, haben sich die Leistungssteigerungen verlangsamt. Es treten weiterhin Fehler auf. Kritiker sagen, dass sie nie den heiligen Gral der KI erreichen werden – die künstliche allgemeine Intelligenz oder AGI, bei der Modelle in der Lage sind, Wissen aus einem Bereich oder Kontext auf völlig andere Situationen anzuwenden, sich mit menschenähnlicher Flexibilität an neue Herausforderungen anzupassen, abstrakt über verschiedene Bereiche hinweg zu denken und originelle Ideen und Lösungen zu entwickeln – und das alles, ohne explizit für jede Aufgabe programmiert zu werden.
DER ANFANG IST NAH
Das ganze Jahr 2023 hindurch war KI dank der LLMs die größte Story in der Technologiebranche. Viele Beobachter glaubten, dass diese neuen Modelle kurz davorstanden, alles zu verändern, und zwar auf eine gute Art und Weise. Viele andere glaubten, sie stünden kurz davor, alles zu verändern, und zwar auf eine katastrophale Art und Weise. Wieder andere glaubten, dass alles beim Alten bliebe, nur dass sich Macht, Gewinne und die Zukunft der Welt in den Händen einiger weniger Big-Tech-Unternehmen konzentrieren würden.
Im Sommer 2024 hatte sich jedoch eine ironische Wende vollzogen. Während Kritiker der generativen KI einst aus Angst vor potenziellen katastrophalen Risiken eine sechsmonatige Pause bei der Entwicklung von Systemen forderten, die leistungsfähiger als GPT-4 waren, kamen nun Fragen auf, warum es so lange dauerte, die nächste Generation bahnbrechender Modelle zu entwickeln. Und zusammen mit diesen Fragen gab es hartnäckige und zunehmende Zweifel daran, wie viel leistungsfähiger die LLMs letztendlich werden könnten. So wurde das, was einst als Staatsfeind Nummer 1 dargestellt worden war, nun als Blindgänger betrachtet. Begriffe wie „KI-Hype“, „KI-Blase“ und „Tiefpunkt der Desillusionierung“ begannen in die Schlagzeilen der Medien einzusickern.
Aber ich hatte bereits ähnlich schwindelerregende Veränderungen der Erwartungen erlebt – und zwar in entgegengesetzter Richtung. Im Jahr 2015, als ich zum ersten Mal mit OpenAI zu tun hatte, lag die Vorstellung, dass KI irgendwann ein menschenähnliches Verstehen und Denken erreichen oder glaubhaft simulieren könnte, noch jenseits der gängigen Meinung. Selbst im Silicon Valley hielt man diese Aussicht für extrem unwahrscheinlich. Das war einer der Gründe, warum OpenAI sich als gemeinnützige Organisation gegründet hatte. Risikokapitalfirmen, die eine Rendite innerhalb des traditionellen Venture-Capital-Zeitrahmens von fünf bis zehn Jahren anstrebten, wären kaum bereit gewesen, sich an einem solch spekulativen und langfristigen Unterfangen zu beteiligen.
Und wenn es im Jahr 2024 große Herausforderungen zu bewältigen galt, dann auch in den Jahren 2015, 2018 und 2020. Irgendwie hatten OpenAI und die übrige KI-Entwicklergemeinschaft es immer geschafft, neue Techniken und Durchbrüche zu finden, die die nächste Welle der Verbesserung ermöglichten.
Zugegeben, es ist leicht, ein Optimist zu sein, wenn man einen langfristigen Horizont hat. Auf mich trifft das zu. Ich glaube sogar, dass wir noch ganz am Anfang dieser neuen Phase menschlicher Entdeckungen und Entwicklungen stehen. Die Hochleistungsrechner werden noch viel leistungsfähiger werden. Die Entwickler werden weiterhin noch effizientere Algorithmen schreiben. Um einige der Einschränkungen zu überwinden, die LLMs kennzeichnen, werden sie neue Architekturen und Techniken entwickeln und verschiedene Ansätze wie multimodales Lernen und neurosymbolische KI einbeziehen, die neuronale Netze mit symbolischem Denken auf der Grundlage von expliziten, vom Menschen definierten Regeln und Logik verbinden.
All das bedeutet, dass wir uns noch in der Anfangsphase der existenziellen Rechenschaft befinden, die diese Systeme auslösen werden, während wir versuchen zu verarbeiten, was es wirklich bedeutet, neue und nicht völlig vorhersehbare Formen von Intelligenz in unsere Welt einzuführen.
Eine Maschine, die wie ein Mensch denken kann – strategisch, abstrakt und sogar kreativ, mit der Geschwindigkeit und dem Umfang eines Computers –, wird natürlich revolutionär sein. Was wäre, wenn jedes Kind auf der Welt plötzlich Zugang zu einem KI-Nachhilfelehrer hätte, der so klug wie Leonardo da Vinci und so einfühlsam wie Bibo aus der Sesamstraße ist? Was wäre, wenn Milliarden von Menschen auf der ganzen Welt plötzlich zu jeder Zeit einen äußerst sachkundigen und zuverlässigen Gesundheitsberater zur Hand hätten?
Natürlich konzentriert sich nicht jeder auf die potenziellen Vorteile der KI – insbesondere in den USA, wo die Menschen durchweg große Bedenken gegenüber der Technologie äußern. Laut einer von Ipsos, einem globalen Analyseunternehmen, durchgeführten Umfrage aus dem Jahr 2022 waren nur 35 Prozent der befragten Amerikaner der Meinung, dass Produkte und Dienstleistungen, die KI nutzen, mehr Vorteile als Nachteile haben.8 Eine ähnliche Umfrage des Pew Research Center ergab, dass nur 15 Prozent der Erwachsenen in den USA „eher begeistert als besorgt über den zunehmenden Einsatz von KI im täglichen Leben“ sind.9 In einer anderen Studie der Monmouth University sagten 56 Prozent, dass „künstlich intelligente Maschinen die Lebensqualität der Menschen insgesamt beeinträchtigen würden“.10
Solche Sorgen sind durchaus verständlich. Wir befinden uns in einer Phase des Umbruchs, die erhebliche Unsicherheiten mit sich bringt. Wie gut werden diese Systeme im Einzelnen werden und wie schnell? Welche Arten von Arbeitsplätzen werden für die Menschen übrig bleiben, wenn die KI sich weiter verbessert? Was geschieht mit dem Vertrauen und dem öffentlichen Diskurs, die bereits unter Beschuss stehen, wenn KI-Technologien es billiger und einfacher machen, überzeugende Simulationen der Realität in großem Maßstab zu erstellen? Was geschieht mit der Privatsphäre und der Autonomie des Einzelnen in einer hochgradig vernetzten Welt, in der Milliarden von Systemen, Geräten und Robotern mit der menschlichen Leistung mithalten oder sie sogar übertreffen und Maßnahmen ergreifen können, die unsere eigenen Entscheidungen und Wünsche verletzen könnten? Können wir weiterhin die Kontrolle über unser Leben behalten und unser eigenes Schicksal erfolgreich gestalten?
DIE MEISTEN BEDENKEN IN BEZUG AUF KI SIND BEDENKEN IN BEZUG AUF MENSCHLICHES HANDELN
Auf dieser letzten Frage liegt der Schwerpunkt dieses Buches: Können wir weiterhin die Kontrolle über unser Leben behalten und unser eigenes Schicksal erfolgreich gestalten? Letztendlich sind Fragen zur Arbeitsplatzverlagerung Fragen zur individuellen menschlichen Handlungsfähigkeit: Werde ich die wirtschaftlichen Mittel haben, um meinen Lebensunterhalt zu bestreiten, und die Möglichkeit, einer Tätigkeit nachzugehen, die ich für sinnvoll halte? Fragen nach Desinformation und Fehlinformation sind Fragen nach der Handlungsfähigkeit des einzelnen Menschen: Woher weiß ich, wem und was ich vertrauen kann, wenn ich Entscheidungen treffe, die mein Leben beeinflussen? Fragen zur Privatsphäre sind Fragen zum individuellen menschlichen Handeln: Wie bewahre ich die Integrität meiner eigenen Identität und die Art und Weise, wie ich in der Welt wahrgenommen werde, und wie bewahre ich ein authentisches Selbstverständnis?
Die menschliche Handlungsfähigkeit ist ein grundlegendes Konzept in der Philosophie, Soziologie und Psychologie. Es besagt, dass Sie als Individuum die Fähigkeit haben, Ihre eigenen Entscheidungen zu treffen, unabhängig zu handeln und somit Einfluss auf Ihr Leben zu nehmen. Auch wenn Sie vielleicht glauben, dass äußere Umstände und Bedingungen eine wichtige Rolle bei den Ergebnissen spielen, die Sie wahrnehmen, so ist es doch Ihr Gefühl der Handlungsfähigkeit, das Sie dazu zwingt, Absichten zu entwickeln, sich Ziele zu setzen und Maßnahmen zu ergreifen, um diese Ergebnisse zu erreichen. Ein Gefühl der Handlungsfähigkeit kann Ihrem Leben also Sinn und Bedeutung verleihen.
Mit der Weiterentwicklung von KI-Systemen nimmt deren Fähigkeit zum selbstgesteuerten Lernen, zur Problemlösung und zur Ausführung komplexer Aufgaben ohne ständige menschliche Aufsicht zu. Ein selbstfahrendes Auto ist sich seiner Handlungsfähigkeit zwar nicht so bewusst wie ein Mensch, aber es ist in der Lage, autonom Entscheidungen zu treffen, Maßnahmen zu ergreifen und Ziele innerhalb seiner eigenen Einsatzbereiche zu verfolgen.
Das bedeutet, dass mit der Zeit immer mehr Systeme, Geräte und Maschinen in Bereiche eindringen werden, die traditionell bislang von menschlichem Handeln geprägt waren – und zwar auf eine Art und Weise, die Menschen oft als unangenehm empfinden. Selbst in Fällen, in denen wir eine solche kognitive Entlastung begrüßen, stellen sich andere Fragen: Was ist, wenn durch das übermäßige Vertrauen in die Fähigkeiten und Fertigkeiten von Maschinen unsere eigenen Fähigkeiten und unser eigenes Handeln mit der Zeit verkümmern? Was ist, wenn die Systeme, die angeblich für uns arbeiten – und Ergebnisse liefern, die wir gutheißen –, am Ende unser Verhalten und unsere Entscheidungen in einer Weise beeinflussen, der wir nicht ausdrücklich zugestimmt haben?
Nun, das ist eigentlich die Geschichte der Menschheit bis heute. Als Homo techne definieren wir uns durch unsere Fähigkeit und unser Engagement, durch die Herstellung von Werkzeugen neue Formen des Seins in der Welt zu schaffen. Das unterscheidet uns von allen anderen Lebewesen auf diesem Planeten, selbst von anderen rudimentären Werkzeugmachern. Während Schimpansen von Generation zu Generation Steinwerkzeuge zum Knacken von Nüssen verwenden, schaffen wir ständig neue Technologien, mit denen wir unsere Handlungsfähigkeit auf neuartige und zunehmend unsere Produktivität steigernde Weise ausüben. Von Steinwerkzeugen bis hin zu Smartphones – dieser Kreislauf der Innovation erweitert und vertieft die Bedeutung des Menschseins im Laufe der Zeit.
Jetzt haben wir die Möglichkeit, neue Supertools zu entwickeln. Solche, die unsere Handlungsfähigkeit so sehr steigern können, dass wir uns mitten in einer Art industrieller Revolution befinden. Die Implikationen dieser Behauptung sind weitreichend, aber hier ist eine Möglichkeit, sie zu verstehen: Intelligenz und Energie, die zusammenwirken, treiben die menschliche Handlungsfähigkeit und damit den menschlichen Fortschritt voran. Intelligenz gibt uns die Fähigkeit, Optionen abzuwägen und uns verschiedene potenzielle Szenarien vorzustellen und zu planen. Energie befähigt uns, das, was wir erreichen wollen, in die Tat umzusetzen. Je mehr Intelligenz und Energie wir zu unseren Gunsten einsetzen können, desto größer ist unsere Fähigkeit, sowohl individuell als auch kollektiv etwas zu verwirklichen.
Die gesprochene Sprache, die kontrollierte Nutzung des Feuers, das Rad und die Schriftsprache waren allesamt zentrale Technologien, die unsere Vorfahren nutzten, um die menschliche Intelligenz und Energie zu verbessern und zu verstärken. Dieser Prozess setzt sich fort, während wir immer wieder neue Innovationen ins Spiel bringen. Im frühen 20. Jahrhundert ermöglichten es Autos mit Verbrennungsmotoren Millionen von Menschen, routinemäßig Leistungen zu erbringen, die noch wenige Jahrzehnte zuvor als übermenschlich gegolten hätten. In den letzten Jahrzehnten haben PCs, das Internet und Smartphones die menschliche Intelligenz in ähnlicher Weise erweitert und verstärkt.
KI wird uns den nächsten großen Sprung nach vorn ermöglichen. Im Gegensatz zu Innovationen wie Büchern oder Anleitungsvideos auf You-Tube ist KI nicht nur eine Möglichkeit, Wissen zu produzieren und zu verbreiten, so wertvoll dies auch sein mag. Da KI in der Lage ist, selbst aktiv zu werden, sich Ziele zu setzen und selbst Maßnahmen zu ergreifen, um diese zu erreichen, können Sie KI auf zwei verschiedene Arten nutzen. In einigen Fällen möchten Sie vielleicht eng mit einer KI zusammenarbeiten – wenn Sie etwa eine neue Sprache lernen oder Achtsamkeitsübungen machen. In anderen Fällen, zum Beispiel bei der Optimierung des Energieverbrauchs in Ihrem Haus auf der Grundlage von Echtzeit-Energiepreisen und Wettervorhersagen, sollten Sie dies lieber einer KI überlassen.
In jedem Fall erhöht die KI Ihre Handlungsfähigkeit, weil sie Ihnen hilft, Maßnahmen zu ergreifen, die zu den von Ihnen gewünschten Ergebnissen führen. Und so oder so geschieht etwas Neues und Umwälzendes. Zum ersten Mal wird synthetische Intelligenz, nicht nur Wissen, so flexibel einsetzbar, wie es synthetische Energie seit dem Aufkommen der Dampfkraft in den 1700er-Jahren war. Intelligenz selbst ist jetzt ein Werkzeug – ein skalierbarer, hochgradig konfigurierbarer, sich selbst verstärkender Motor für den Fortschritt.
Wenn wir sie richtig nutzen, können wir einen neuen Zustand der Superagency erreichen. Dieser Zustand tritt ein, wenn eine kritische Masse von Individuen, die durch KI persönlich befähigt sind, auf einem Niveau zu agieren beginnen, das sich auf die gesamte Gesellschaft auswirkt. Mit anderen Worten: Es geht nicht nur darum, dass einige Menschen dank KI besser informiert und ausgerüstet sind – das Ganze gilt für alle, auch für diejenigen, die KI selten oder nie direkt nutzen. Denn plötzlich kann Ihr Arzt Ihre vagen und scheinbar nicht zusammenhängenden Beschwerden mit KI-Präzision diagnostizieren. Ihr Automechaniker weiß genau, was das seltsame Klopfen in Ihrem Kofferraum bedeutet, wenn Sie an einem heißen Tag an einer Ampel Gas geben. Selbst Geldautomaten, Parkuhren und Verkaufsautomaten sind dann mehrsprachige Genies, die Ihre Bedürfnisse sofort verstehen und sich auf Ihre Vorlieben einstellen. Das ist die Welt der Superagency.
MIT VOLLDAMPF VORAUS
Vor dem Industriezeitalter war die Produktivität in der gesamten Gesellschaft stark eingeschränkt, weil Energie ein knappes Gut war. Das Bestellen von Feldern, das Graben von Tunneln, das Betreiben von Flaschenzügen – alles erforderte viel menschliche oder tierische Arbeit, was den Umfang, die Effizienz und im weiteren Sinne das menschliche Wohlergehen einschränkte, da sowohl Mensch als auch Pferd praktisch als Lasttiere fungierten. Windmühlen und wasserbetriebene Mühlen ermöglichten in einigen Regionen eine effizientere Produktion von Getreide und Textilien, sofern die Natur es zuließ. Wenn Sie in der Nähe eines Flusses geboren wurden, war Ihr Leben vielleicht etwas wohlhabender und bot Ihnen mehr Möglichkeiten zur Selbstverwirklichung. Wenn nicht, dann fanden Sie hoffentlich Freude am Pflügen.
Mitte des 17. Jahrhunderts begann sich dies jedoch mit dem Aufkommen der Dampfkraft zu ändern.
Rückblickend betrachten wir die industrielle Revolution oft mit einem einseitigen Blick auf die schlimmsten Auswirkungen, die sie mit sich brachte. Städte, die durch die Kohleverbrennung, die die Dampfkraft erforderte, geschwärzt wurden. Zermürbende Arbeit in gefährlichen Fabriken, in denen die Arbeiter nur wenige oder gar keine Rechte hatten. Kinderarbeit. Stärker reglementierte und weniger gemeinschaftliche Lebensformen. Überbevölkerung in den Slums und gleichzeitig mangelhafte gesellschaftliche Integration in den Städten.
Man könnte sogar sagen, es war eine mit Gewalt verbundene menschenfeindliche Ära. Werksuhren und Straßenlaternen verdrängten die der Natur innewohnenden Rhythmen. Von den Menschen wurde oft erwartet, dass sie wie Maschinen funktionierten. Verbrauchertransaktionen in einer zunehmend kommerzialisierten Welt verdrängten die Möglichkeiten für ein wechselseitiges Geben und Nehmen und persönliches Vertrauen. Wachstum und Wohlstand auf globaler Ebene waren nicht im Gleichgewicht, und die neue Nachfrage nach natürlichen Ressourcen verschärfte die bereits ausbeuterischen kolonialen Beziehungen und schuf völlig neue Ungleichheiten.
Aber das war nicht die ganze Wahrheit über die Dampfkraft und die industrielle Revolution. Insgesamt waren synthetische Energie und Industrialisierung über Jahrhunderte hinweg radikal humanisierende Kräfte. Die dampfbetriebene Mechanisierung schuf Möglichkeiten, in Größenordnungen zu arbeiten, die es bisher noch nie gegeben hatte. Das Streben danach erforderte ein neues Maß an Kooperation und Zusammenarbeit. Einmal erreicht, führte dies zu einem neuen Maß an Überfluss und Vielfalt.
Eine stärker technologisch geprägte Gesellschaft erforderte auch eine besser ausgebildete Bevölkerung. Mehr Menschen mit einer größeren Vielfalt an Fähigkeiten und Kenntnissen bewirkten zusätzliche Innovationen, die wiederum neue Möglichkeiten und Chancen eröffneten. Neue Effizienzgewinne bei der Produktion von Nahrungsmitteln, Gütern aller Art und Informationen trugen schließlich zu dem sozialen Fortschritt bei, der oft mit Wohlstand und Überfluss einhergeht: gerechtere Gesetze, größere wirtschaftliche und kulturelle Mobilität, immer solidere Sozialsysteme und eine zunehmende Betonung der individuellen Rechte und Freiheiten. Es gab eine Zeit, in der sich fast alle menschlichen Bemühungen auf den Anbau von Nahrungsmitteln und das Schlachten von Vieh konzentrierten. Die Dampfmaschine erweiterte die Möglichkeiten des Menschseins in exponentieller Weise, indem sie die tatsächliche Arbeitskraft durch synthetische Arbeitskraft erweiterte. Sie ebnete den Weg zu einem bereichernden, vielfältigen, würdigen und humanen Leben.