20,99 €
Niedrigster Preis in 30 Tagen: 20,99 €
Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut. Sein topaktuelles Buch über künstliche Intelligenz informiert, klärt auf – und macht klar, dass weder die Forschung noch die Allgemeinheit auch nur im Ansatz vorhersehen können, was mit KI auf die Menschheit zukommt: Rettung oder Untergang? »Wir brauchen nicht darüber nachzudenken, ob eine allgemeine KI irgendwann Bewusstsein hat oder die Menschheit vernichtet – das ist Science Fiction. Aber über reale Risiken und Gefahren von böswilligen Menschen, die KI für ihre Zwecke missbrauchen, müssen wir nachdenken – gründlich. Und über die Verantwortung der reichsten Unternehmen der Welt auch.« Manfred Spitzer Das Jahr 2023 wird vielleicht als der Beginn einer neuen Epoche in die Menschheitsgeschichte eingehen, als »Plauder-KIs« wie ChatGPT Schlagzeilen machten. Künstliche Intelligenz verändert die Welt, und das schneller und weitergehend als gedacht, wie der Neurowissenschaftler und Bestseller-Autor Manfred Spitzer eindrucksvoll in seinem neuen Buch beschreibt. Sie funktioniert im Kern mit neuronalen Netzwerken, über die der Autor vor rund 30 Jahren bereits bahnbrechend geforscht hat. Er analysiert hier nun den Einsatz von KI in den Bereichen Medizin, Militär, Klima, Natur- und Geisteswissenschaften, Verbrechensbekämpfung, Politik, Wirtschaft sowie im Alltag. Sein beunruhigendes Fazit: KI durchdringt schon jetzt unser Leben und unsere Gesellschaft, und zwar ohne jede Regulierung, von vorheriger Technikfolgenabschätzung nicht zu reden. KIs produzieren eben nicht nur »Dummheiten«; in falschen Händen können sie die Menschheit in den Abgrund stürzen. Aus dem Inhalt: ChatGPT: Geist aus der Flasche – Der Plauderroboter – Sprengstoff, Ladendiebstahl, Folter und Weltuntergang – Vertrauen, Transparenz und Verantwortung Was bisher geschah: Von AlphaGo Zero bis MuZero – Künstliche Intuition – Hautkrebs und Handy – Eiweiß-Origami in der Molekularbiologie – Neue Antibiotika gegen unheilbare Krankheiten Gehirncomputer: Der erste Neuroinformatiker – Neuroplastizität – Abstraktion durch Tiefe – KI verbessert selbst – Algorithmen vs. neuronale Netzwerke Naturwissenschaft: Intuition – Denken, ohne zu denken Computer – »schnell und dumm«? KI – schon heute alltäglich: Innere Sicherheit: Predictive Policing – KI in Hollywood – globale Wettervorhersagen – KI an der Börse – KI bei Corona-Grenzkontrollen Geisteswissenschaft: Entzifferung von Keilschrift – Große Sprachmodelle – Ergänzung historischer Textfragmente – KI in der Archäologie – KI erweitert die Hermeneutik KI in der Medizin: Screening KI – Diagnostik von Gewebeproben – Krebsvorsorge – Lebenserwartung im Röntgenbild – Knochenbruch-Vorhersage – KI im klinischen Alltag Faszination und Angst: Menschen sind auch nur Maschinen – Echte und unechte Illusionen und Maschinen-Orchester Soziale Folgen: Vorurteile, Manipulation und der Verlust von Wahrheit – Rassistische KI – KI und Kriminalität – Radikalisierung als Geschäftsmodell – Weniger Wahrheit, Privatsphäre und Demokratie – ChatGPT in der Schule Die militärische Dimension von KI: Von MuZero zum Co-Piloten – Die DARPA, Drohnenschwärme und Soldaten – Das Grundproblem autonomer Systeme beim Militär KI: Rettung oder Bedrohung: Erdbebenvorhersage – KI und Klimakrise – Treibhausgas Methan – Goldener Wasserstoff – KI und das Problem atomarer, biologischer und chemischer Waffen – Regulierung: Prinzip Verantwortung
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Seitenzahl: 467
Veröffentlichungsjahr: 2023
Manfred Spitzer
Dem Menschen überlegen – wie KI uns rettet und bedroht
Knaur eBooks
Künstliche Intelligenz wird unser Leben und Arbeiten schneller und tiefgreifender verändern als gedacht – so der Neurowissenschaftler und Bestsellerautor Manfred Spitzer. Sie durchdringt schon heute unser Leben, und zwar ohne jede Regulierung, wie Manfred Spitzer anhand vieler Beispiele eindrucksvoll beschreibt: in der Medizin ebenso wie im militärischen Bereich, in den Natur- und Geisteswissenschaften, bei der Verbrechensbekämpfung und beim Klimaschutz. Sein beunruhigendes Fazit: KI produziert nicht nur »Dummheiten«, wenn wir nicht aufpassen; in falschen Händen kann sie die Menschheit in den Abgrund stürzen.
Weitere Informationen finden Sie unter: www.droemer-knaur.de
Widmung
Vorwort zur Taschenbuchausgabe
Vorwort
1. Kapitel
Zwischen Science und Science-Fiction
Von ELIZA bis Alexa: Computer sind auch nur Menschen
Von Expert-Systemen zum automatischen Debattierer
Der Plauderroboter
Interview mit einem Nicht-Menschen
Fake-Interview und Fake-Fotos
Sprengstoff, Ladendiebstahl, Folter und Weltuntergang
Vertrauen, Transparenz und Verantwortung
2. Kapitel
Depression in Südkorea
Tiefer Geist lernt im Spiel
Von AlphaGo Zero bis MuZero
Künstliche Intuition
Hautkrebs und Handy: KI in der Medizin
Eiweiß-Origami in der Molekularbiologie
Neue Antibiotika gegen unheilbare Krankheiten
Fazit
3. Kapitel
Integralrechnung, ideale Sprache und binäres Zahlensystem
Die Rechenmaschine
Konrad Zuse: Von der Rechenmaschine zum Computer
Der Von-Neumann-Computer
Fazit
4. Kapitel
Der erste Neuroinformatiker
Der zweite Neuroinformatiker
Neuroplastizität
Neuronale Netzwerke
Tiefes Lernen
Abstraktion durch Tiefe
Lernen durch Fehlerrückmeldung
Demis Hassabis
KI verbessert sich selbst
Fazit: Algorithmen vs. neuronale Netzwerke
5. Kapitel
Intuition – Denken, ohne zu denken
Computer – »schnell und dumm«?
Mathematische Beweise mit Computerhilfe
Künstliche Intuition
Physik: Galaxien und Gravitationslinsen in der Astronomie
Chemie
Fazit
6. Kapitel
Innere Sicherheit: Predictive Policing
KI in Hollywood
Im Dienst globaler Wettervorhersagen
»Hören Sie genau hin« – KI an der Börse
KI bei Corona-Grenzkontrollen in Griechenland
Fazit
7. Kapitel
Entzifferung von Keilschrift
Große Sprachmodelle
Textverständnis: KI und Hermeneutik
Ergänzung historischer Textfragmente
KI in der Archäologie
KI erweitert die Hermeneutik
Fazit
8. Kapitel
Screening: KI – perfekt fürs Einfache
Experten und Wissen in der Medizin
Diagnostik von Gewebeproben
Krebsvorsorge: Schneller und sicherer in der Früherkennung
Neues entdecken: Lebenserwartung im Röntgenbild
Knochenbruch-Vorhersage
KI im klinischen Alltag: KI-Kluft, Erfolge und Misserfolge
Fazit
9. Kapitel
Antike Automaten – Respekt!
Ein antiker Analogrechner gegen Kontrollverlust
Noch mehr Faszination durch die technische Revolution in der Renaissance
Menschen sind auch nur Maschinen
Echte und unechte Illusionen und Maschinen-Orchester
Rezeption: Vom Golem über den Zauberlehrling und Sandmann bis zum Roboter
Fazit
10. Kapitel
Rassistische KI
KI und Kriminalität
Radikalisierung als Geschäftsmodell
Weniger Wahrheit, Privatsphäre und Demokratie
ChatGPT in der Schule?
Fazit
11. Kapitel
Von MuZero zum Co-Piloten
Die DARPA, Drohnenschwärme und Soldaten
Risiken reduzieren
Das Grundproblem autonomer Systeme beim Militär
Das Risiko bleibt
Fazit
12. Kapitel
Erdbebenvorhersage
KI und Klimakrise: Windräder optimieren
Bäume in der Wüste
Treibhausgas Methan
Goldener Wasserstoff
Gefahren: KI und das Problem atomarer, biologischer und chemischer Waffen
Regulierung: Prinzip Verantwortung
Literaturverzeichnis
Bildnachweis
Für Manfred Neumann
Meine Monografie Künstliche Intelligenz (KI) erscheint etwa zwei Jahre nach ihrer Erstveröffentlichung als Taschenbuchausgabe. Dieser Zeitraum erscheint zunächst nicht sehr groß, aber dennoch verging kaum eine Woche, in der nicht neue Anwendungen von KI publiziert wurden. Man kann KI zum Trainieren einer anderen KI verwenden (Hsu 2023; mit gutem Erfolg), zur Simulation verstorbener Angehöriger zwecks Verbesserung der Trauerarbeit (Morris & Brubaker 2024; Sparkes 2024; ohne Erfolg und mit vielen Nebenwirkungen), vor Gericht als Anwalt (Becker 2025; zum Entsetzen der Richterin) oder als Avatar des Opfers, das damit dann im Gerichtssaal spricht (Andai 2025; Kraft 2025; hierzulande verboten, bislang nur in den USA mit wenig Erfolg). Bislang ohne Erfolg wird versucht, KI zum Verstehen der Sprache von Tieren zu verwenden. Mittlerweile gibt es einen Wettbewerb – die Coller Dolittle Challenge – um einen Geldpreis von 500000 US-Dollar für denjenigen, der es als Erster schafft, durch Einsatz von KI die Kommunikation zwischen Arten zu ermöglichen, also es beispielsweise Menschen ermöglicht, mit Affen, Delfinen oder Elefanten ein Gespräch zu führen. Eine erste Prämie von 100000 US-Dollar, die jährlich ausgezahlt werden soll, bis der Hauptpreis gewonnen wird, wurde am 15. Mai 2025 tatsächlich erstmals ausgezahlt. Prämiert wurde ein Team von Wissenschaftlern mit dem Plan, KI auf Tonaufzeichnungen von Tümmler-Delfinen aus vier Jahrzehnten anzuwenden. Das Team hat bereits mehr als 20 verschiedene Geräusche im »Vokabular« der Tiere identifiziert und plant, KI-Klassifizierungsmethoden einzusetzen, um dieses Lexikon zu erweitern (Lenharo 2025).
KI wurde auch zum Bierbrauen und Kaffeemischen eingesetzt, was nach Meinung der jeweiligen Autoren im besten Bier und besten Kaffee der Welt resultierte. Aber treibt hier nicht vielleicht die Wissenschaft seltsame Blüten? Sind Bier und Kaffee nicht einfach Geschmackssache? Und da man schon über Geschmack bekanntlich nicht streiten sollte, wäre es vielleicht besser, KI in diesem sehr subjektiv gefärbten Bereich eher nicht anzuwenden – oder doch?
In einer im Fachblatt Nature Communications veröffentlichten Studie verwendeten belgische Wissenschaftler KI, um das schier Unmögliche zu ermöglichen: Sie legten es darauf an, Bier – ein jahrtausendealtes Getränk, das es in einer großen Vielfalt von Geschmacksrichtungen gibt – zu verbessern. Hierzu analysierten sie zunächst die chemische Zusammensetzung von 250 belgischen Bieren verschiedenster Sorten und setzten die Ergebnisse mit Daten aus Verkostungen durch Experten sowie 180000 Kundenrezensionen zu den gleichen Bieren in Beziehung. Dann trainierten sie eine KI, die chemische Merkmale mit sensorischen Aspekten wie Süße, Säure oder Mundgefühl verknüpfte. Mithilfe dieser KI konnten die Wissenschaftler dann vorhersagen, welche chemischen Profile verschiedener Biersorten die Verbraucher am wohlschmeckendsten finden. Auf dieser Grundlage mischten sie bekannten Biersorten bestimmte chemische Verbindungen bei, um die geschmacklichen Eigenschaften des jeweiligen Bieres zu verbessern. Diese neuen, mit KI »aufgepäppelten« Biere wurden dann zusammen mit den alten Originalversionen von Experten blind verkostet, wobei sich ergab, dass die neu entwickelten Biere durchweg köstlicher empfunden wurden als die Originalversionen (Schreurs et al. 2024).
Keine Angst: Bier wird auch in Zukunft von Bierbrauern hergestellt werden. Der Senior-Autor der Studie, Kevin Verstrepen, stellt hierzu fest: »Die KI-Modelle sagen die chemischen Veränderungen voraus, die ein Bier optimieren könnten, aber es liegt immer noch an den Brauern, dies in die Tat umzusetzen« (Jacobs 2024). Es geht also nicht darum, einem Bier etwa ein paar Chemikalien zuzusetzen, damit es besser schmeckt – denn das ist nach dem ältesten Lebensmittelgesetz der Welt, dem Deutschen Reinheitsgebot für Bier aus dem Jahr 1516, sowieso verboten. Vielmehr könnte ein cleverer Bierbrauer die Erkenntnisse aus der KI-Forschung verwenden, um die Zusammensetzung seiner Zutaten so zu ändern, dass das Endprodukt die richtigen Bestandteile in der richtigen Menge enthält. Nach einem Kommentar im Fachblatt MIT Technology Review könnten Bierbrauer KI vor allem dazu nutzen, um besser schmeckende alkoholfreie Biere herzustellen (Williams 2024). Jeder, der schon einmal eines getrunken hat, weiß, dass dies bis heute zu den größten Herausforderungen dieser Branche gehört. Wenn Experten mit KI Bier brauen, haben wir also allen Grund, diesbezüglich zuversichtlicher zu sein.
Das gilt auch für sehr wohlschmeckenden Kaffee. Mit einem Kaffeekonsum von 7,35 kg pro Person im Jahr liegt Finnland international auf Platz 2 (Bögl 2022) – nach Luxemburg mit fast 10 kg. Deutschland liegt mit 4,77kg weit abgeschlagen auf Platz 12. Angesichts dieser Zahlen wundert es nicht, dass die Finnen bei der übergroßen Vorliebe für guten Kaffee in ganz Skandinavien als Erste auf die Idee kamen, Kaffee mithilfe von KI zu verbessern. Hierzu muss man wissen, dass Kaffee immer eine Mischung aus meistens zwei verschiedenen Sorten ist, weil sich Bitterstoffe und Aroma nicht anders optimieren lassen. Die Firma AI-Conic verwendete geschmackliche Beschreibungen verschiedenster Kaffeesorten sowie deren Bewertungen, um die beste Mischung aus verschiedenen Sorten zu ermitteln. Für einen Menschen ist diese Aufgabe mit zwei im genau richtigen Verhältnis zu mischenden Sorten schon schwer genug. Ab drei Sorten wird die Aufgabe unübersichtlich und ist nicht mehr zuverlässig lösbar. Die KI von AI-Conic hat hiermit keine Mühe und behielt auch bei vier zu mischenden Sorten den Überblick. Sie wählte zur großen Überraschung der Röstprofis Kaffeebohnen aus Brasilien (Sorte Fazenda Pinhal; 40%), Kolumbien (Sorte San Lorenzo; 25%) Guatemala (Sorte La Bolsa; 25%) und Äthiopien (Sorte Geruke; 10%) aus (Anonymus 2024). Der Kaffee schmeckt tatsächlich wunderbar.
Sowohl beim Bier als auch beim Kaffee zeigt sich, dass der komplizierte Zusammenhang von Geschmack und Geruch einerseits sowie chemischer Zusammensetzung des Nahrungsmittels andererseits überhaupt nur durch KI zu bewältigen ist. Dieser Zusammenhang ist meistens zu komplex, als dass Menschen ihn zuverlässig herstellen könnten. Aber er liegt dennoch nicht prinzipiell im Verborgenen (weswegen man nur von »subjektiven Empfindungen« sprechen könne, wie früher und zuweilen noch heute behauptet wurde beziehungsweise wird), sondern konnte mit dem Einsatz von KI in den letzten Jahren tatsächlich prinzipiell und immer genauer aufgeklärt werden (Keller et al. 2017; Lee et al. 2023), was schließlich zur Anwendung für bestes Bier und besten Kaffee führte.
Wie rasch KI Probleme lösen kann, die für den Menschen zu kompliziert sind, zeigen auch die folgenden Beispiele. Wie auf Seite 51ff. nachzulesen, wurde die KI AlphaFold mit etwa 50000 Proteinen (Eiweißkörpern), deren Aminosäurenreihenfolge (Sequenz) einerseits und deren Form andererseits im Jahr 2018 bereits bekannt waren, trainiert. Dieses Wissen war in den 60 Jahren zuvor von allen mit diesem Problem befassten Chemikern der Welt generiert worden.1 Die KI konnte daraufhin die Struktur von 24 Proteinen finden (publiziert im Januar 2020) und wurde dann kontinuierlich weiterentwickelt. Etwa zweieinhalb Jahre später hatte die weiterentwickelte KI die Struktur von mehr als 200 Millionen Proteinen aufgeklärt (publiziert im August 2022). Die Autoren schrieben: »Wir sind fertig mit allen weltweit bekannten Eiweißkörpern aller Pflanzen und Tiere«.
Aber was sind schon 50000 von 200 Millionen? – Die Antwort: ein Viertausendstel. Für dieses eine Viertausendstel der Proteine in allen Lebewesen brauchten die weltweit mit Strukturaufklärung beschäftigten Chemiker also etwa 60 Jahre. Im Lichte dieser Tatsache ist die Leistung der Firma DeepMind und von deren Chef Demis Hassabis umso bemerkenswerter, denn ihre KIAlphaFold klärte im Alleingang innerhalb von zweieinhalb Jahren die Struktur von 4000mal mehr Proteinen auf, als die Strukturbiochemiker in 60 Jahren schafften. Demis Hassabis musste dafür den Nobelpreis für Chemie bekommen – obwohl er gar kein Chemiker ist. Das geschah im Herbst 2024.
Einen Tag zuvor hatte der Psychologe Geoffrey Hinton den Nobelpreis für Physik bekommen. Er hatte bereits 1986 das Problem gelöst, wie man mehrschichtige künstliche neuronale Netzwerke trainiert, indem man deren synaptische Verbindungen rückwärts veränderte, also vom Output – nacheinander Schicht für Schicht – zurück zum Input. Der normale Informationsfluss in einem solchen Netzwerk bei der Arbeit geht aber immer vom Input zum Output (»vorwärts«); beim Training eines Netzwerks muss jedoch – dies war Hintons Einsicht – die Änderung der Synapsen von hinten nach vorn erfolgen, also »rückläufig«. Der Algorithmus ist daher als »backpropagation algorithm« bekannt.
Im Herbst 2024 haben also ein Informatiker und ein Psychologe jeweils den Nobelpreis für ihre bahnbrechenden Leistungen im Bereich der KI erhalten. Weil es aber keinen Nobelpreis für KI gibt, bekam der Informatiker den Preis für Chemie und der Psychologe den für Physik, denn ihre mittels KI gemachten Entdeckungen betrafen diese Bereiche. Damit ist auch klar: KI kann und wird sehr wahrscheinlich überall in der Wissenschaft eine wichtige Rolle spielen – übrigens auch in den Geistes- und Sozialwissenschaften, wie u.a. das Beispiel zur Entschlüsselung der Keilschrift in diesem Buch zeigt. Aber auch die direkte Anwendung von KI zur Lösung lebensweltlicher Probleme nimmt rasch zu. Ein im Buch beschriebenes Beispiel ist das aufgrund datenschutzrechtlicher Probleme sehr umstrittene Predictive Policing. Mittlerweile wurde bekannt, dass nicht nur in China mehr als 500 Millionen Überwachungskameras dem Staat erlauben, jede Person innerhalb von zehn Minuten zu lokalisieren (Fröhlich 2018, Mozur et al. 2022), sondern dass auch in den USA solche Systeme rechtswidrig zur Identifikation und Überwachung verdächtiger Personen eingesetzt wurden (MacMillan & Schaffer 2025). Bekanntermaßen funktionieren sie bei Frauen, älteren und dunkelhäutigen Menschen weniger zuverlässig, was bedeutet, dass sie bei diesen Personengruppen mehr falsch-positive Urteile produzieren und damit automatisch diskriminierend wirken (zu KI-bedingten Vorurteilen).
In den vergangenen zwei Jahren hatte ich im Rahmen von Vorträgen und Diskussionsveranstaltungen zu KI vielfache Gelegenheit zum Austausch – mit Laien und Experten, Männern und Frauen, Jung und Alt. Dabei habe ich viel gelernt. Laien ist vor allem wichtig, dass Entscheidungsträger und Politiker ein besseres Verständnis von KI haben sollten, gerade weil diese neue Technologie weitreichende Konsequenzen für unsere Gesellschaft haben wird. Frauen, so scheint mir, interessieren sich hierfür tendenziell mehr als Männer, äußern insgesamt aber auch eher diesbezügliche Ängste. Männer dagegen erscheinen mir gegenüber der neuen Technik meist eher positiv eingestellt. Weiterhin sind ältere Menschen gegenüber Neuem (und damit auch gegenüber KI) eher zurückhaltender und kritischer als jüngere.
Zu diesen subjektiven Eindrücken passen die Ergebnisse einer Untersuchung österreichischer Wissenschaftler, die zusammen mit Kollegen der Universität Bonn der Frage nachgingen, ob Patienten einen Arzt oder eine KI oder eine Kombination aus beiden bevorzugen. Hierzu wurden 1183 Patienten aus Deutschland, Österreich und der Schweiz befragt, wobei das Kollektiv eher älter und weiblich war (55% Frauenanteil; 60% über 40 Jahre). Angesichts der vielen bahnbrechenden Ergebnisse zu KI in der Medizin und der zunehmenden Zahl diesbezüglicher Publikationen könnte man annehmen, dass es Patienten lieber mit einer KI als mit einem Arzt zu tun hätten, zumal viele Menschen ungern über Schwächen und Symptome und damit über schambesetzte Inhalte sprechen. Wie sich jedoch zeigte, vertrauten die Patienten am ehesten dem Arzt, dann dem Arzt mit einer KI und am wenigsten einer KI allein (Riedl et al. 2024). Bei Patienten im deutschsprachigen Raum mangelt es also noch an Vertrauen in die medizinische KI. Jenseits des großen Teichs ist das schon anders, wie eine Reihe entsprechender Studien aus den USA zur Anwendung von ChatGPT für die Beantwortung medizinischer Fragen zeigt.
Und wie steht es mit den Ärzten? In der Medizin gibt es derzeit kaum ein größeres Thema als KI – in jedem Fach. Wie wirkt sich dies auf die Ärzte aus? Erleichtert KI ihnen die Arbeit, oder macht sie ihnen mehr Stress? Diese Frage betrifft derzeit vor allem Ärzte, die im Bereich der Radiologie arbeiten (Mohammadi & Sebro 2024). Dies hat mehrere Gründe: Es gibt zu wenig Radiologen, die Bevölkerung wird immer älter und damit immer kränker, und in den letzten zwei Jahrzehnten ist die Zahl der weltweit durchgeführten radiologischen Untersuchungen deutlich gestiegen (Mahesh et al. 2023). Gleichzeitig ist die Zahl der von der US-amerikanischen Zulassungsbehörde FDA für medizinische Anwendungen KI-Systeme in den letzten Jahren deutlich gestiegen, wobei über 75% der Systeme in der Radiologie eingesetzt werden (Elmahdi & Sebro 2023). Darüber hinaus muss man noch bedenken, dass KI in der Radiologie ganz unterschiedlich eingesetzt wird: Sie unterstützt den Arzt sowohl bei interpretativen, genuin medizinischen Aufgaben wie Erkennung, Diagnose und Prognose als auch bei Bürotätigkeiten wie der Erstellung von Berichten, Protokollen, bei der Kontaktaufnahme mit überweisenden Ärzten oder der Terminplanung. Man sollte daher annehmen, dass KI dem Radiologen bei der Arbeit vielfältig hilft und damit die Wahrscheinlichkeit, dass er unter Burn-out leidet, verringert. Nach einer norwegischen Studie zu 122969 Fällen von Brustkrebs, die durch zwei Radiologen diagnostiziert worden waren und nachträglich von einer KI beurteilt wurden, schlussfolgerte, dass KI die Arbeit der Radiologen um 50 bis 90 Prozent reduzieren könnte (Larsen et al. 2022). Eine entsprechende spanische Studie an 15987 Brustkrebs-Patientinnen hatte ein Jahr zuvor bereits eine mögliche Arbeitsersparnis durch den Einsatz von KI (bei gleicher Erfolgsrate) von 30 bis 70 Prozent ergeben (Raya-Povedano et al. 2021).
Es könnte jedoch sein, dass diese sehr positiven Ergebnisse der Tatsache geschuldet sind, dass man Reihen-Krebsvorsorgeuntersuchungen (Brustkrebs-Screening) betrachtet hat und nicht den klinischen Alltag, in dem es um viel mehr als »Ja oder Nein« geht, also klinische Einschätzung im Zusammenhang mit der Anamnese, weiteren diagnostischen Prozeduren und Beratungen zur Differenzialdiagnose mit Kollegen. KI könnte also unter dem Strich zu höheren Anforderungen und damit zu mehr Arbeit führen und die Wahrscheinlichkeit von Burn-out erhöhen. Zur Frage der Verursachung von Burn-out durch KI in der Realität des klinischen Alltags untersuchten Pekinger Ärzte 6726 Radiologen aus 1143 Krankenhäusern. Wie sich zeigte, war die Verwendung von KI mit einer höheren Wahrscheinlichkeit von Burn-out bei Radiologen verbunden, und der Zusammenhang zeigte eine Dosis-Wirkungs-Beziehung auf, d.h., mit zunehmender KI-Nutzung stieg auch die Wahrscheinlichkeit eines Burn-outs (Liu et al. 2024). Allerdings blieben Ursache und Wirkung unklar, denn es könnte sein, dass die Nutzung von KI Burn-out verursacht, aber auch, dass Radiologen mit Burn-out eher KI nutzen (z.B. um Burn-out zu vermindern). Erst aufwendige Längsschnittstudien werden hier Klarheit (und Kausalität) bringen. Die Studie ist dennoch bedeutsam, denn sie konnte zeigen, dass eine negative Einstellung des Radiologen entweder zur eigenen Arbeit oder zu KI die Entstehung von Burn-out begünstigt. Klar wurde auf jeden Fall, dass sich die Arbeit der Radiologen verändern wird. Ersetzen lassen sich Radiologen durch KI hingegen nicht.
Was am Beispiel der Radiologie gezeigt wurde, gilt auch für die übrige Medizin, wenn auch hier die Entwicklung nicht so rasch voranschreitet. Von besonderer Bedeutung ist hier auch die kürzlich publizierte Beobachtung, dass große Sprachmodelle (eine Form von KI) eine bislang kaum beachtete und letztlich sehr »menschliche« Schwäche aufweisen: Sie haben Probleme mit der Negation, wie ein Team aus Wissenschaftlern vom Massachusetts Institute of Technology (MIT), der KI-Firma Open AI und der University of Oxford herausgefunden hat (Hsu 2025; Alhamoud et al. 2025). Dies ist gerade in der Medizin sehr wichtig, denn die Bestätigung des Nicht-Vorhandenseins einer Entzündung oder eines Tumors ist oft ebenso wichtig wie das Vorhandensein. Betrachten wir zur Problematik der Negation ein Beispiel: Wenn ich Herrn Müller ärgern will, ohne etwas Falsches über ihn zu sagen, brauche ich nur gelegentlich zu behaupten: »Herr Müller ist kein Dieb.« Dies wird langfristig dazu führen, dass bei der Erwähnung von Herrn Müller in den Köpfen der Leute mitschwingt: »Herr Müller, da war doch was: Hat der nicht etwas gestohlen?« Denn unser Gehirn funktioniert nicht logisch wie ein Computer, sondern assoziativ. Daher zeigt sich diese Schwäche der Verarbeitung von »Nein« nicht nur bei uns Menschen, sondern auch bei KI, die ja der menschlichen (biologischen) Informationsverarbeitung nachempfunden ist. Das hat in der realen Welt durchaus Konsequenzen, wie ich am eigenen Leibe erfahren habe: Vor Jahren hatte die Partei Alternative für Deutschland bei mir angefragt, ob ich bei einer Anhörung im Landtag von Mecklenburg-Vorpommern zum Thema Medienkonsum als Experte auftreten würde, was ich abgelehnt habe. Dies hat jedoch genügt, um bis heute in den Köpfen der Menschen – und in Datenbanken! – die Assoziation von mir mit der AfD herumspuken zu lassen: So nennt die Suchmaschine Google nach der Eingabe von »Manfred Spitzer« zu meinem Entsetzen noch heute (Stand: 22. Mai 2025) an vierter Stelle (nach »KI«, »Hochzeit« und »Bücher«) »AfD«. Man sieht daran sehr deutlich: Kaum etwas ist schwerer auszurotten als eine einmal in die Welt gesetzte, vollkommen realitätslose Assoziation.
Wenn sich eine im Buch (S.108) zu findende Aussage zwischenzeitlich immer wieder neu und ganz allgemein bestätigt hat, dann die, dass Experten nicht durch KI ersetzt werden, aber Experten, die keine KI verwenden, durch Experten, die KI verwenden, ersetzt werden. Das gilt nicht nur für Radiologen und Ärzte im Allgemeinen, sondern überall. So folgte beispielsweise auch auf die Publikation zu einer neuen Chemie-KI, die mittels Large Language Models (LLMs) chemische Untersuchungen automatisch erledigt (Boiko et al. 2023), der Kommentar, dass diese KI ohne die Hilfe des Menschen nicht richtig funktioniert (Steinkellner et al. 2025).
Selbst eine Arbeit, die zu zeigen versucht, dass eine KI namens BrainGPT – ein Large Language Model, LLM – demnächst die Wissenschaftler im Bereich der Gehirnforschung ersetzen könnte (Luo et al. 2025), zeigt das genaue Gegenteil davon. Man hatte die Vorhersagefähigkeit der Ergebnisse wissenschaftlicher Experimente aus dem Bereich der Neurowissenschaft von Experten mit der einer eigens trainierten KI verglichen, wobei sich die KI als treffsicherer erwies. Bedeutet dies, dass Neurowissenschaftler bald durch KI ersetzt werden? So scheint es, denn die Autoren diskutieren ihre Ergebnisse wie folgt: »Unsere Analysen deuten darauf hin, dass LLMs die grundlegenden Muster entdecken, die den neurowissenschaftlichen Studien zugrunde liegen, was sie in die Lage versetzt, die Ergebnisse von Studien vorherzusagen, die für sie neu sind« (Luo et al. 2025, S.309f.). Und weiter: »Die beeindruckenden vorausschauenden Fähigkeiten der LLMs lassen auf eine Zukunft schließen, in der LLMs Wissenschaftlern helfen, Entdeckungen zu machen« (Luo et al. 2025, S.310). Die richtige Vorhersage des Ergebnisses eines Experiments ist jedoch nicht das Gleiche wie das Planen und Durchführen von Experimenten. Das zweite Zitat zeigt dies an, denn die Autoren sprechen hier davon, dass BrainGPT den Wissenschaftlern nur dabei hilft, Entdeckungen zu machen. Es wäre damit nichts weiter als ein Werkzeug, was die Autoren auch später konstatieren: »BrainGPT dient nicht nur als Werkzeug für Neurowissenschaftler, sondern kann auch dazu beitragen, die Struktur des Fachgebiets aufzuzeigen« (Luo et al. 2025, S.310). Was mehr als ein Werkzeug ist, ist auf jeden Fall immer noch ein Werkzeug. BrainGPT funktioniert wie ein Hammer. Der sagt dem Zimmermann aber gerade nicht, wie er den Dachstuhl zu bauen hat (Spitzer 2025). Kurz: Ein Werkzeug in der Hand eines Experten ersetzt den Experten nicht, sondern ermöglicht ihm effizienteres Arbeiten. Das kann KI auch. Nicht mehr und nicht weniger.
Vor mehr als 30 Jahren habe ich damit begonnen, mich mit neuronalen Netzwerken zu beschäftigen. Damals waren das Computermodelle, die auf der Grundlage von ein paar Dutzend miteinander verbundenen Neuronen arbeiteten. Diese Computermodelle lieferten trotz ihres geringen Umfangs im Vergleich zu realen Gehirnen mit viel mehr Nervenzellen (Fruchtfliege: 250000; Maus: 71 Millionen; Ratte: 200 Millionen; Makaken-Affe: 6,3 Milliarden; Mensch: 86 Milliarden) schon erstaunliche Erkenntnisse. Mit einem Mal wurde klar, wie Lernen funktioniert, wie Neuronen für etwas stehen können (das Problem der Repräsentation von etwas im Gehirn), wie sie Informationen speichern und verarbeiten können (vgl. Kapitel 4) und warum es sein kann, dass sie wie Gehirne – aber im Gegensatz zu einem Computer, der »abstürzt« oder »sich mal wieder aufgehängt hat« – mit Würde kaputtgehen. So nennt man die Eigenschaft (»graceful degradation«), wenn beim Verlust von 50 bis 70 Prozent eines Gehirns oder neuronalen Netzwerks dessen Funktion noch erstaunlich gut erhalten sein kann. Die vielen neuen Erkenntnisse aus der vor allem in den USA vorangetriebenen Forschung zu neuronalen Netzwerken fasste ich dann in meinem ersten Sachbuch Geist im Netz zusammen, das diese damals hierzulande weitgehend unbekannten Sachverhalte einem breiten Publikum näherbrachte. Trotz der bereits damals publizierten beeindruckenden Leistungen wäre mir nicht im Traum eingefallen, dass daraus einmal das Geschäftsmodell der reichsten Unternehmen der Welt (Alphabet, Amazon, Apple, Meta und Microsoft) werden würde. Die gegenwärtig von ihnen simulierten neuronalen Netzwerke sind riesig und werden in wenigen Jahren die Anzahl der Neuronen im menschlichen Gehirn überschreiten. Mit ihnen wird das Verhalten eines großen Teils der Menschheit individuell ausgewertet, um dadurch u.a. effektiver personenbezogene Werbung zu betreiben.
Für mich waren neuronale Netzwerke ein Werkzeug zum Verstehen des Gehirns. In der Neurowissenschaft sind sie dies noch immer: Wenn es heute möglich ist, aus der mittels eines Scanners (MRT) gemessenen Aktivität im Gehirn eines Menschen dessen Wahrnehmungen und Gedanken zu erkennen (ohne ihn zu fragen), dann ist das nur durch den Einsatz neuronaler Netzwerke möglich (Gaziv et al. 2022; Tang et al. 2023). Das betrifft damals wie heute die Psychiatrie in ganz besonderer Weise. Es waren Psychiater wie Ralph Hoffman in Yale, Jonathan Cohen und David Servan-Schreiber in Pittsburgh und viele andere, die neuronale Netzwerke mit psychopathologischen Phänomenen wie Halluzinationen (Hoffman 1988) oder formalen Denkstörungen (Servan-Schreiber & Cohen 1990) erstmals in Verbindung brachten. Eigene Arbeiten zu Wahn (Spitzer 1995) und formalen Denkstörungen (1997) haben mich dennoch damals nicht daran denken lassen, dass Computational Psychiatry25 Jahre später zu einem veritablen Forschungszweig innerhalb des Fachgebiets werden würde (Macpherson et al. 2021; Friston 2023).
Das Besondere am Schreiben dieses Buches bestand darin, dass der Untersuchungsgegenstand (und damit der Inhalt des Buches) Gestalt annahm, während ich schrieb. Viele der Beispiele, vom Einsatz von KI im Ukrainekrieg bis zur Wetter- und Erdbebenvorhersage, stammen aus diesem Jahr. Das war nur bei einem anderen Buch ebenso, nämlich bei Pandemie, das ich mitten in der ersten Covid-19-Welle im Frühjahr 2020 schrieb. Damals war von einem Tag auf den anderen alles anders, bei der Arbeit und privat. In der Klinik mussten wir die Psychiatrie – im klinischen Alltag eine Abfolge von Gruppenaktivitäten, weil nahezu alle psychischen Störungen mit Problemen des Miteinander einhergehen – neu erfinden, um sie überhaupt weiter betreiben zu können: Aufhören war bei den schwer kranken Menschen keine Option. Das bisschen Privatleben, das nach sehr vielen Stunden in der Klinik noch übrig blieb, war unter Lockdown-Bedingungen ebenfalls völlig anders – wie jeder weiß, der diese Zeit erlebt hat.
Nun ist KI glücklicherweise keine Pandemie, aber erstens wird – abgesehen vom Ukrainekrieg und der Klimakrise – über kaum etwas anderes häufiger berichtet. Zweitens handeln viele Studien zu KI von völlig neuen Erkenntnissen und Möglichkeiten oder gar »Durchbrüchen« in den verschiedensten Gebieten. Dies verdeutlicht, drittens, dass KI unser aller Leben stark verändern wird.
Kennen Sie jemanden, der sich dafür interessiert, ob eine künstliche Intelligenz (KI) Kaffee kochen kann? Nein? Ich auch nicht. Aber manche Menschen halten das für eine wichtige Frage, beispielsweise Steve Wozniak, der Mitbegründer von Apple. Er meinte, nur wenn ein von KI gesteuerter Roboter in ein fremdes Haus gehen, die Küche finden und dort eine Tasse Kaffee machen könnte (also den Kaffee-Test besteht), dann würde er dieser KI »allgemeine Intelligenz« zusprechen. Seit der britische Mathematiker und Informatiker Alan M. Turing (1912–1954) sich Anfang der 1950er-Jahre darüber Gedanken gemacht hat, ob und wie man einen Computer von einem Menschen unterscheiden könnte, wenn man mit beiden über einen Fernschreiber kommunizieren würde, werden immer neue solcher »Tests« – Turing Tests genannt – für diesen Zweck vorgeschlagen. Beim IKEA-Test (auch Flat Pack Furniture Test genannt) muss die KI ein Möbelstück aufbauen, dessen Teile sich samt Bauanleitung in einem geschlossenen Paket befinden. Auch das Bestehen des Eingangstests einer amerikanischen Universität oder des Einstellungstests von Firmen wurde als Kriterium für wirkliche (im Vergleich zu vorgegaukelter) Intelligenz von Maschinen vorgeschlagen. Und obwohl erst kürzlich 442 Autoren insgesamt 204 solcher möglicher Tests diskutiert haben (Srivastava et al. 2023), glaube ich nicht, dass uns dies beim Verstehen von künstlicher Intelligenz weiterbringt, wenn man sich darüber Gedanken macht, wie eine KI etwas tun müsste, um menschlich zu erscheinen.
Das Umgekehrte – ein Test, bei dem ein Mensch einen Computer überzeugen muss, dass er kein Computer ist – haben viele von Ihnen wahrscheinlich schon hinter sich, nämlich immer dann, wenn Sie in der Vergangenheit ein CAPTCHA gelöst haben, um im Internet weiterzukommen. »CAPTCHA« steht für Completely Automated Public Turing test to tell Computers and Humans Apart (»vollautomatischer öffentlicher Turing-Test zur Unterscheidung von Computern und Menschen«). Es handelt sich um (grafisch dargestellte) Aufgaben, die von Menschen leicht und von Computern eher nicht gelöst werden können. Sie dienen der Sicherheit und sollen verhindern, dass Computer bzw. Roboter sich missbräuchlich für Menschen ausgeben und Internetformulare ausfüllen. Sagt das etwas darüber, wie wir uns von KI unterscheiden? – Wenn Sie jetzt »ja« denken, sollten Sie wissen, dass CAPTCHAs mittlerweile auch von KI gut gelöst werden (George et al. 2017).
Das Gleiche gilt aus meiner Sicht auch für die Frage, ob KI Bewusstsein hat. Der Neurowissenschaftler Christof Koch hat am 20.Juni 2023 eine vor 25 Jahren abgeschlossene Wette mit dem Philosophen Chalmers verloren (Finkel 2023; Cogitate Consortium et al. 2023; Melloni et al. 2023; Wnuk 2023). Er hatte damals gewettet, dass das Problem, was Bewusstsein ist, in 25 Jahren durch die Gehirnforschung gelöst sein würde. Er hatte sich geirrt, und die Kiste Rotwein ging an den Philosophen. Solange wir aber offensichtlich nicht wissen, was Bewusstsein ist, muss jede Diskussion darüber, ob jemand oder etwas Bewusstsein hat, scheitern. Ähnlich ist es mit anderen in jüngster Zeit geäußerten Behauptungen: KI habe keine Emotionen; Menschen verfügten im Gegensatz zu KI über Intuitionen. Die erste hängt sehr daran, was man mit »Emotion« meint, und die zweite ist schlichtweg falsch.
Schließlich taucht dieses Problem auch unter dem Namen Künstliche Allgemeine Intelligenz (artificial general intelligence, AGI) auf. So hat das Unternehmen DeepMind eine KI namens Gato publiziert, die Atari-Spiele spielen, Überschriften zu Bildern produzieren, mit Leuten plaudern, Bausteine mit einem Roboterarm aufbauen und weitere 596 Aufgaben erledigen kann (Sparkes 2022). Kein anderer als der Chef-KI-Wissenschaftler von Facebook, Yann LeCun, meinte zu dieser eierlegenden Wollmilchsau, dass es ihn nicht sehr beeindrucke, wenn man viele Fähigkeiten in einen Topf wirft und dann behauptet, im Topf stecke nun allgemeine Intelligenz.
Ich versuche mit diesem Buch, die Leser dort abzuholen, wo sie stehen. Wir sind alle konfrontiert mit den beinahe täglichen Pressemitteilungen über die Erfolge, »Durchbrüche« oder »Revolutionen« in der Forschung zu künstlicher Intelligenz. Was KI ist, was sie kann, wie sie funktioniert und wo es Probleme gibt, all das wird in diesem Buch diskutiert. Im Gegensatz zu einem Lehrbuch über künstliche Intelligenz, das mit viel Mathematik beginnen würde, habe ich einen anderen Weg der Darstellung gewählt. An Beispielen aus den verschiedensten Bereichen soll deutlich werden, welche Eigenschaften für KI charakteristisch sind. Dadurch soll klar werden, wie sie funktioniert. Man kann auf diese Weise KI durchaus intuitiv verstehen – ebenso wie man intuitiv, d.h. ohne die Evolutionstheorie oder den Satz des Pythagoras, verstehen kann, was ein Frosch ist oder ein Baum oder ein rechtwinkliges Dreieck.
Mein Dank gilt Georg Grön, Thomas Kammer, Dennis Kätzel, Doreen Scheiwe und Friedrich Uehlein, die jeweils mehrere Kapitel des Buches gelesen und mir wertvolle Hinweise gegeben haben. Jürgen Bolz hat den Text lektoriert und lesbarer gemacht. Margit Ketterle vom Droemer Verlag hat das Buch von Anfang an begleitet. Die Übersetzungen englischer Zitate habe ich selbst übernommen, ohne es jeweils anzumerken. Viele Abbildungen sind ebenfalls von mir gezeichnet, und das Register habe ich von Hand erstellt. Sämtliche Fehler gehen auf mein Konto, denn zu jeder Autorenschaft gehört auch, dass man den Text verantwortet. Das Buch ist Manfred Neumann gewidmet, der mir die neuronalen Netzwerke vermittelt und mich in unzähligen Gesprächen vieles klarer hat sehen lassen.
Ulm, im Juli 2023
Manfred Spitzer
ChatGPT: Geist aus der Flasche
Am 30. November 2022 schaltete das US-amerikanische Unternehmen OpenAI den Zugang zu einer künstlichen Intelligenz (KI) für die allgemeine Nutzung frei, mit der man sich unterhalten kann. Seither spricht alle Welt von Künstlicher Intelligenz (abgekürzt: KI) – mit großem »K« am Anfang, weil die beiden Wörter zusammen einen Terminus technicus meinen. Bereits fünf Tage nach seiner Freischaltung hatte ChatGPT eine Million Nutzer, und im Januar 2023, also nach weniger als zwei Monaten, waren es 100 Millionen! Zum Vergleich: Das zehn Jahre zuvor erschienene, zu Facebook gehörende soziale Netzwerk Instagram zum Anschauen und Verbreiten von (bewegten) Bildern brauchte etwa zweieinhalb Jahre, bis es 100 Millionen Nutzer hatte. Selbst TikTok, die Smartphone-Anwendung (App) zum Ansehen und Verbreiten kurzer Videoclips aus dem Jahr 2018, brauchte noch neun Monate bis zum Erreichen von 100 Millionen Nutzern (Anonymus 2023b).
ChatGPT ist kein Computerprogramm, sondern ein neuronales Netzwerk (vgl. Kap.4) zur Verarbeitung (processing) natürlicher Sprache (natural language). Man spricht auch von Natural Language Processing (NLP)1 Modellen, von denen mittlerweile eine ganze Reihe entwickelt wurde. Sie unterscheiden sich in der Größe der Netzwerke – ChatGPT hat 175 Milliarden Synapsen – und dem Aufwand an Training, also der Menge an verarbeiteten Daten. ChatGPT wurde bisher mit Daten im Umfang von 570 Gigabyte trainiert (Bender et al. 2021, S. 611).
Der Brite Sir Arthur C. Clarke (1917–2008) war nach seinem Studium der klassischen Philologie und der Physik Erfinder, professioneller Taucher, TV-Moderator und Autor von Büchern über Wissenschaft (Science) und Science-Fiction. Bereits im Jahr 1945 schlug er Kommunikationssatelliten in geostationären Umlaufbahnen vor und konzipierte Raumstationen. Sein 1951 erschienenes Buch Die Erforschung des Weltraums (The Exploration of Space) wurde vom bei der NASA arbeitenden Wernher von Braun verwendet, um den damaligen US-Präsidenten John F. Kennedy davon zu überzeugen, dass es möglich sei, zum Mond zu fliegen. Die Verfilmung seines Buches 2001:Odyssee im Weltraum (1968) machte ihn so bekannt, dass er ein Jahr später die tatsächliche erste Mondlandung im US-Fernsehen kommentierte. Im Jahr 2000 wurde er von der britischen Krone zum Ritter geschlagen. Von Sir Clarke stammt der Ausspruch, dass jede weit genug fortgeschrittene Technologie von Magie nicht zu unterscheiden sei (Clarke 1973).
Was Computer, das Internet und digitale Technik anbelangt, so wurde aus deren Magie in den letzten Jahren eher Langeweile, waren doch die Fortschritte eher bescheiden als verzaubernd: Ein etwas größerer Bildschirm am Computer, etwas schnellere Grafik beim Computerspielen, ein paar Pixel mehr in der Kamera des Smartphones und weitere Apps zum Betrachten immer kürzerer Videoclips. Die versprochenen Revolutionen – selbstfahrende Autos, Lufttaxis, das Metaversum – Fehlanzeige. Mit einer Ausnahme: ChatGPT.
Mit ChatGPT war erstmals eine KIfür alle frei verfügbar. Damit war gleichsam der schon seit einigen Jahren existierende maschinelle Geist aus der Flasche gelassen worden. Seit dem 30. November 2022 kann jeder mit KI herumspielen und selbst erleben und herausfinden, was KI kann. Die meisten Leute waren völlig geplättet – um es vorsichtig auszudrücken! Und wie Arthur C. Clarke zwischen Apollo und Odyssee, zwischen Wissenschaft und Science-Fiction oszillierte, so mutet KI für uns an: ChatGPT ist nicht wirklich ein Mensch, sondern tut nur so und macht nichts weiter, als seine Bezeichnung, Chatbot (frei übersetzt: Plauderroboter), nahelegt. Zugleich aber sind die Auswirkungen so real, dass die Tagesschau schon im Januar länger darüber berichtete und der Deutsche Ethikrat am 20. März einen 287-seitigen Report darüber veröffentlichte. Nur ein paar Tage später publizierte das US-amerikanische Institut Future of Life2 einen offenen Brief, in dem der sofortige Stopp der Entwicklung und des Einsatzes von KI und eine sechsmonatige Pause (Moratorium) gefordert wurde. Gezeichnet hatten ihn etwa 1300 Experten und Wissenschaftler aus der Tech- und KI-Branche – darunter der Chef von Tesla und SpaceX Elon Musk und der Mitbegründer von Apple Steve Wozniak. Alles außer einem Stopp sei zu gefährlich. Das klingt eher nach Science-Fiction. Aber viele der Autoren sind Wissenschaftler. Am 31.März 2023 berichtete wieder die Tagesschau, dass die italienische Datenschutzbehörde den Zugang zu ChatGPT aus Gründen des Daten- und Jugendschutzes sperren ließ. Am Dienstag nach Pfingsten, dem 30. Mai 2023, schließlich warnte eine Gruppe von KI-Spezialisten und KI-Firmenchefs, dass die von ihnen entwickelte Technologie der künstlichen Intelligenz eines Tages eine existenzielle Bedrohung für die Menschheit darstellen könnte und als gesellschaftliches Risiko auf einer Stufe mit Pandemien und Atomkriegen betrachtet werden sollte. Ihre (englischsprachige) Erklärung bestand nur aus 22 Wörtern, war von mehr als 350 Führungskräften, Forschern und Ingenieuren im KI-Bereich – u.a. dem Chef von OpenAI, Sam Altman, dem Chef von DeepMind, Demis Hassabis, und dem zuweilen als »Pater der KI« bezeichneten Informatiker Geoffrey Hinton – unterzeichnet worden und wurde vom in San Francisco ansässigen Zentrum für KI Sicherheit (Center for AI Safety, kurz CAIS) und danach sofort von allen großen Zeitungen dieser Welt verbreitet. Der Text lautet: »Die Verminderung des Risikos der Auslöschung durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkriegen eine globale Priorität sein« (CAIS2023).
Was ist hier los? Was ist überhaupt KI? Und muss man sich wirklich solche Sorgen machen: ein plaudernder Roboter – Gefahr für die Jugend, Auslöschung der Menschheit? Das klingt einerseits völlig daneben. Andererseits beunruhigt durchaus, dass die an Modellen natürlicher Sprachverarbeitung wie ChatGPT arbeitenden Wissenschaftler (die NLP-Community) zu einem guten Drittel (36 Prozent) schon länger der Meinung sind, dass eine solche KI während dieses Jahrhunderts eine Katastrophe auslösen könnte, die in ihrer Schwere einem Atomkrieg gleichkommt (Michael et al. 2023). Das Statement vom 30. Mai war also nicht wirklich neu. Die Risiken und Gefahren von KI kann man indes erst diskutieren, wenn man mehr über KI weiß, weshalb dies erst in späteren Kapiteln dieses Buches geschieht (das Militär ist Gegenstand von Kapitel 11).
Chatbots gibt es seit dem Jahr 1966, als der deutsch-amerikanische Informatiker und Gesellschaftskritiker Joseph Weizenbaum (1923–2008) das Computerprogramm ELIZA publizierte, das einen klientenzentrierten Gesprächspsychotherapeuten (nach Carl Rogers) simulierte und weltweit große Bekanntheit erreichte. ELIZA erlaubte ein Gespräch, das – wie heute noch bei ChatGPT – am Rechner über Bildschirm und Tastatur geführt wurde. Es handelte sich um ein Computerprogramm zur Verarbeitung von Sprache, das mithilfe eines strukturierten Wörterbuchs einen eingegebenen Satz nach bedeutungstragenden Wörtern (wie z.B. »Mutter« oder »Schmerz«) durchsuchte, Synonyme fand und vor allem eine Sammlung von Sätzen enthielt, bei denen es sich auch um Fragen oder Ermunterungen zum Weiterreden handelte. Nicht immer funktionierte das reibungsfrei, wie das folgende Beispiel zeigt (ELIZA in kursiv).
Patientin: »Alle Menschen sind gleich.«
ELIZA: »Wie meinen Sie das?«
Patientin: »Sie belästigen uns immer mit diesem oder jenem.«
ELIZA: »Können Sie ein Beispiel nennen?«
Patientin: »Mein Freund sagte, ich solle hierherkommen.«
ELIZA: »Ihr Freund bat Sie hierherzukommen.«
Patientin: »Er sagt, ich sei die meiste Zeit depressiv.«
ELIZA: »Es tut mir leid zu erfahren, dass Sie depressiv sind.«
Patientin: »Es stimmt. Ich bin unglücklich.«
ELIZA: »Glauben Sie, dass es Ihnen hilft, nicht unglücklich zu sein, wenn Sie hierherkommen?«
Patientin: »In jedem Fall brauche ich Hilfe.«
ELIZA: »Was würde es für Sie bedeuten, Hilfe zu bekommen?«
Patientin: »Vielleicht könnte ich lernen, mit meiner Mutter besser klarzukommen.«
ELIZA: »Erzählen Sie mir mehr über Ihre Familie!«
Patientin: »Meine Mutter kümmert sich um mich.«
ELIZA: »Wer in Ihrer Familie kümmert sich noch um Sie?«
Patientin: »Mein Vater.«
ELIZA: »Ihr Vater.«
Patientin: »Sie sind irgendwie wie mein Vater.«
ELIZA: »Was sehen Sie für Ähnlichkeiten?«
Patientin: »Sie sind nicht sehr aggressiv, aber ich denke, Sie wollen nicht, dass ich das merke.«
ELIZA: »Wie kommen Sie darauf, dass ich nicht sehr aggressiv bin?«
Patientin: »Sie streiten nicht mit mir.«
ELIZA: »Und warum denken Sie, dass ich nicht mit Ihnen streite?«
Patientin: »Sie haben Angst vor mir.« (modifiziert nach Weizenbaum 1966, S. 36f)
Weizenbaum war überrascht darüber, mit welch einfachen Mitteln ELIZA die Illusion eines menschlichen Gesprächspartners hervorbringen konnte. Die Menschen bemerkten nicht (oder vergaßen es zumindest rasch), dass sie mit einer Maschine kommunizierten. Nicht wenige gaben im Dialog intimste Details von sich preis. Dies entsetzte Weizenbaum in zunehmendem Maße, weshalb er – als Computerfachmann – im weiteren Verlauf seines Lebens zu einem der weltweit bekanntesten Kritiker gedankenloser Computergläubigkeit wurde. Wenn er damals geahnt hätte, wie es weiterging …
Sprachassistenten hat er – man möchte sagen: glücklicherweise – nicht mehr erlebt. Im Cadillac und der Mercedes S-Klasse wurden einfache Sprachassistenten bereits eingebaut, als es weder Alexa noch Siri gab. Allerdings konnten sie außer dem Steuern des Telefons (»Mercedes, ruf bitte meine Frau an«) nicht sehr viel. Zunächst waren Roboterstimmen im Auto auch eher lästig, weder klangen sie gut, noch verstanden sie uns gut. Mittlerweile parlieren unsere Autos mit uns recht angenehm und klingen nur noch beim Aussprechen von Straßennamen nach Maschine. Vor allem verstehen sie uns trotz der Geräusche im Auto mittlerweile recht gut, wenn wir ihnen die Adresse ansagen, zu der wir fahren wollen. Dann bekommen wir gesagt, wann wir links, rechts oder geradeaus fahren sollen. Nur fahren müssen wir noch selbst, aber das wird sich in den nächsten Jahren möglicherweise auch ändern.
Auch an die von Unternehmen wie Apple,Amazon und Microsoft vor einigen Jahren auf den Markt gebrachten Sprachassistenten haben sich viele Menschen längst gewöhnt. Apples Siri wurde 2011 zuerst vorgestellt, gefolgt von Cortana der Firma Microsoft im Jahr 2014 und von Amazons Alexa im Jahr 2015. Diese persönlichen Assistenten, wie sie auch genannt werden, können Fragen beantworten oder einfache Aufgaben erfüllen. »Alexa, wie wird das Wetter heute?« oder »Hey Siri, stell meinen Wecker für morgen früh um 7 Uhr.« Seit 2018 gibt es mit Google Duplex einen Sprachassistenten, der selbstständig Termine vereinbaren oder Hotelbuchungen vornehmen kann.
Nun passierte im ganz großen Stil das, was schon 50 Jahre zuvor bei ELIZA auch passiert ist: Die Leute vergaßen, dass es sich bei Siri und Alexa um Maschinen handelte. Der bei Amazon verantwortliche Leiter des Produktmanagements für Alexa, Daren Gill, ist wie Joseph Weizenbaum überrascht darüber, wie oft die Menschen Alexa in soziale Interaktionen einbinden. Jeden Tag sagen Hunderttausende von Menschen zu Alexa »Guten Morgen«, eine halbe Million Menschen haben ihr ihre Liebe gestanden, und mehr als 250000 Menschen haben ihr einen Antrag gemacht. Man könnte das als Scherz abtun, wäre da nicht auch die Tatsache, dass eines der häufigsten zu Alexa gesprochenen Wörter »Danke« ist (Turk 2016). Dies zeigt an, dass die Menschen höflich zu Alexa, einer Maschine, sein wollen. – Warum? Kein Mensch begrüßt seinen Kühlschrank oder Staubsauger allmorgendlich und wir bedanken uns bei den Geräten auch nicht – von Heiratsanträgen gar nicht zu reden!
Dies liegt nicht an einer einzigen Eigenschaft von Alexa, sondern an einer ganzen Reihe kleiner und daher meist unbemerkter Merkmale des Sprachassistenten. Im Gegensatz zu Siri oder Cortana muss man beispielsweise keine Taste drücken oder nach dem Smartphone suchen, um Alexa aufzurufen. Vielmehr hört Alexa ständig mit und »bemerkt«, wenn ihr Name gesagt wird. Sie wird also auf Zuruf »aufgeweckt«, um auf Anfragen zu reagieren, so wie man den Namen eines Freundes ruft, um dessen Aufmerksamkeit zu bekommen. Zudem bedeutet die Verwendung von Sprache in dieser Weise, dass die Schnittstelle zwischen Mensch und Maschine nahezu verschwindet, weil Menschen nun mal auf natürliche Weise sprachlich kommunizieren. Die Eingabe von Befehlen in einen Computer fühlt sich anders an. »Wir wollen, dass die Menschen so interagieren, wie sie es mit Freunden tun würden«, sagt der Produktmanager (zit. nach Turk 2016) und fügt hinzu, dass das Entwicklerteam durch den Computer in der Fernsehserie Star Trek inspiriert war. Sir Clarke hätte seine Freude.
Ein weiteres Designmerkmal von Alexa ergibt sich daraus, wo sich die Geräte befinden: Wir verwenden sie zu Hause und damit in einem sehr intimen Raum. Auch das erzeugt Nähe, nicht nur in räumlicher, sondern auch in sozialer Hinsicht. Zudem ist das Design des Lautsprechers sehr neutral, ein einfacher Zylinder, sonst fast nichts, außer einem LED-Ring, der in die Richtung leuchtet, aus der die Stimme kommt – als würde der Lautsprecher dem Sprechenden seine Aufmerksamkeit zuwenden.
Man könnte nun meinen, dass Alexa doch ein Gesicht und Mimik bräuchte, um als soziales Wesen eingeschätzt zu werden. Dem wiederum widersprechen alte sozialpsychologische Untersuchungen. Vor über 70 Jahren führte der amerikanische Psychologe österreichischer Herkunft Fritz Heider (1896–1988) mit seiner Mitarbeiterin Marianne Simmel experimentelle Studien durch, bei denen ein kurzer Trickfilm von sich bewegenden Symbolen – ein großes und ein kleines Dreieck sowie ein Kreis – gezeigt wurde (Abb.1.1). Danach wurden die Teilnehmer gefragt, was sie gesehen hatten. Allein aufgrund der Art der Bewegung der drei Symbole sprachen die meisten Versuchspersonen davon, dass eine Frau (Kreis) von einem Mann (großes Dreieck) verfolgt bzw. bedroht würde und ein anderer freundlicher Mann (kleines Dreieck) sie schützen wollte etc. (Heider & Simmel 1944). Diese Beobachtungen waren wegweisend bei der Frage, welche Ursachen Menschen den Ereignissen in ihrer Umgebung zuschreiben, und führten schließlich zur Attributionstheorie (Heider 1958), einer der bedeutsamsten Theorien im Bereich der Sozialpsychologie. Für unseren Zusammenhang ist jedoch noch wichtiger, wie leicht Menschen einfachsten Formen die Eigenschaft »Menschlichkeit« zuschreiben.
Abb. 1.1: Bild aus dem Heider-Simmel-Film (aus Heider & Simmel, 1944, S. 244).
Noch weiter gehen die Studien des Stanford-Professors Clifford Nass (1958–2013), des Direktors des dortigen Communication between Humans and Interactive Media (CHIMe) Lab und eine große Autorität im Bereich der Mensch-Maschine-Interaktion. Er ließ zum Beispiel Menschen die Leistung eines Desktop-Computers bewerten, wobei sich zeigte, dass sie den Computer positiver bewerteten, wenn sie ihre Antwort in den zu bewertenden Computer selbst eingaben, anstatt sie entweder (Kontrollgruppe 1) mit Bleistift auf ein Blatt Papier zu schreiben oder (Kontrollgruppe 2) in einen anderen Computer einzugeben. Sie verhielten sich dem Computer gegenüber also genauso wie gegenüber einem Menschen, den man ja auch weniger kritisch beurteilt, wenn man ihm ins Gesicht schaut (Nass et al. 1999).
Nass begründete mit seinen Arbeiten den Gedanken vom Computer als sozialem Agenten (Computers are Social Actors paradigm; vgl. Nass & Moon 2000). Er konnte zusammen mit seinen Mitarbeitern zeigen, dass Menschen erstens Sozialverhalten, wie z.B. Höflichkeit und Reziprozität, auch gegenüber Computern an den Tag legen; dass sie zweitens menschliche soziale Kategorien überstrapazieren, indem sie beispielsweise Geschlechterstereotype oder ethnische Vorurteile auch auf die Einschätzung von Computern übertragen. Drittens wird auch bei Geräten (wie auch beim Menschen) einem vermeintlich spezialisierten Gerät eine inhaltlich bessere Leistung zugetraut als einem vermeintlich nicht spezialisierten Gerät; und viertens reagieren Menschen differenziert in Bezug auf die vermeintlich festgestellte »Persönlichkeit« von Computern (Moon & Nass 1996). All dies macht keinen Sinn, wir verhalten uns aber trotzdem so.
Schließlich werden Systeme für Sprachoutput heute dadurch vermenschlicht, dass man z.B. Pausen an bestimmten Stellen eines Satzes künstlich einbaut, wo Menschen auch Pausen machen würden, weil sie nachdenken. KI denkt jedoch nicht nach, sondern produziert ihren Output sowieso schneller als Menschen. Hier wird also »Denken« aktiv und unterschwellig simuliert (denn wir nehmen Pausen im Sprachfluss kaum je bewusst wahr), um »Menschenähnlichkeit« zu erzeugen.
Obwohl ELIZA nie Eingang in die klinische Anwendung gefunden hat, gab es weitere Versuche mit derartigen Computerprogrammen. Aber wie sehr man sich auch mit zunehmend verzweigten Entscheidungsbäumen und immer detailreicheren Wörterbüchern und der Ausarbeitung ganzer »Ontologien« abmühte – die Resultate fanden über Jahrzehnte keine Anwendung in der Psychotherapie.
Mit dem Begriff Ontologie ist hier übrigens nicht ein Bereich der Philosophie gemeint, in dem es um allgemeine Grundstrukturen der Wirklichkeit geht. Vielmehr meint »Ontologie« in der Informatik Systeme formaler Definitionen von Begriffen und deren Beziehungen zueinander in ganz bestimmten Bereichen, wie etwa dem Autoverkehr, der Lebensmittelindustrie oder der Medizin. Um beispielsweise »Appendizitis« zu verstehen, muss man wissen, was eine Entzündung (»-itis«) ist, dass Organe entzündliche Veränderungen aufweisen können, dass der Darm ein Organ ist und einen kleinen, blind endenden wurmförmigen Fortsatz (»Appendix«) hat. In diesem bleiben Darmbakterien bei Durchfall gespeichert, sodass sie den gesamten Dickdarm nach dem Durchfall wieder besiedeln können. Medizin ist deswegen so kompliziert, weil sie einerseits seit gut 150 Jahren als angewandte Naturwissenschaft sehr stringent strukturiert ist, andererseits aber auch eine Tausende von Jahren zurückreichende Geschichte hat. Aus historischen Gründen bezeichnet »Rachitis« keine Entzündung, sondern Verkrümmungen der Knochen aufgrund von Vitamin-D- oder Kalziummangel, die schon bei 4000 Jahre alten ägyptischen Mumien nachweisbar sind. Nicht jede »-itis« ist also eine Entzündung. Und das macht die Medizin so kompliziert.
In der Informatik werden Ontologien zur Strukturierung und Klassifizierung von Ausdrücken mit dem Zweck verwendet, sogenannte Expert-Systeme für ein übergreifendes Verständnis komplexer Sachgebiete zu entwickeln. Expert-Systeme sind Computerprogramme, die das Wissen eines bestimmten Fachgebiets oder Bereichs durch Formeln, Regeln und eine Wissensdatenbank bündeln und dadurch die Entscheidungen menschlicher Experten nachahmen. Dies kann nur dadurch gelingen, dass Einzelnes (Dinge, Strukturen, Prozesse) mittels allgemeiner Kategorien in systematische Zusammenhänge gebracht wird. Solches Verständnis kann man »intelligent« nennen, und das Gesagte gilt für die Intelligenz von Menschen ebenso wie für künstliche Intelligenz von Expert-Systemen. ELIZA funktionierte, weil ein Computerprogramm mühsam entwickelt und geschrieben wurde, durch das bestimmte Wörter aus den Bereichen »Mensch«, »Beziehung«, »Psychologie«, »Emotionen« in verschiedene Zusammenhänge gebracht wurden. Über Chemie oder griechische Mythologie konnte man mit ELIZA nicht reden. Die Begrenztheit der Verarbeitung und der Speicherung von Informationen in herkömmlichen Computern und Programmen erforderte bis in die jüngste Vergangenheit, dass man sie nur in jeweils bestimmten Bereichen einsetzen konnte. Anders ausgedrückt: Eine zweckgebundene Beschränkung von »Verständnis« war für die Intelligenz von Computern und Computerprogrammen der einzig gangbare Weg, damit sie überhaupt funktionieren konnten. In der Medizin wurde mit MYCIN in den 1970er-Jahren an der Stanford University von einem der Pioniere der Biomedizinischen Informatik, Edward Shortliffe, das erste Expert-System zur Diagnose und Therapie von Infektionskrankheiten entwickelt (Duda & Shortliffe 1983).
Weder automatische Psychotherapeuten und Expert-Systeme noch Sprachassistenten luden je zum wirklichen Argumentieren ein. Denn deren Fähigkeiten waren letztlich sehr begrenzt. Kurze Dialoge aus Frage und Antwort bzw. Befehl und Ausführung waren möglich, aber diskutieren konnte man mit ihnen nicht. Erst mehr als ein halbes Jahrhundert nach ELIZA gewann ein Chatbot namens Project Debater bei Wettbewerben tatsächliche Diskussionen mit realen Menschen. Eine Maschine, die ohne menschliche Hilfe aus dem Internet selbstständig zu einem Problem Informationen sucht, sie aufbereitet, Argumente konstruiert und in einen Text verwandelt, erreichte im Jahr 2018 menschliche Leistungen bei Rededuellen über komplexe Themen mit zwei Debattiermeistern (Slonim et al. 2021).
Project Debater wurde von der Firma IBM in einem Labor im israelischen Haifa entwickelt (Metz & Lohr 2018). Dann diskutierte die KI mit zwei menschlichen Debattierern, Noa Ovadia, der israelischen Debattiermeisterin von 2016, und dem Geschäftsmann Dan Zafrir. Die Debatten betrafen die Themen »Wir sollten die Weltraumforschung subventionieren« und »Sollten wir die Telemedizin stärker nutzen?«. »In beiden Debatten stufte das Publikum Projekt Debater als schlechter in der Vermittlung, aber besser in der Menge der vermittelten Informationen ein. Und trotz mehrerer Fehler des Roboters stufte das Publikum die KI in der zweiten Debatte als überzeugender ein (in Bezug auf die Veränderung des Standpunkts des Publikums) als ihren menschlichen Gegner Zafrir«, kommentiert der britische Guardian das Ereignis (Solon 2018). Am 11. Februar 2019 wurde Project Debater dann in einer Livedebatte mit Harish Natarajan, der den Weltrekord in der Anzahl der Siege bei Debattenwettbewerben hält, in San Francisco der Weltöffentlichkeit vorgestellt. Thema war: »Sollten wir Vorschulen staatlich fördern?« (Andiel 2019).
Der Name ChatGPT zeigt an, dass es sich um einen sogenannten Chatbot handelt, also um ein technisches System (Roboter), mit dem man plaudern (to chat) kann. »GPT« bedeutet »Generative Pre-trained Transformer«, also im Deutschen wörtlich »hervorbringender vortrainierter Umformer«. Hiermit ist ein neuronales Netzwerk gemeint, das aufgrund seiner Struktur menschenähnlich mit Sprache umgehen kann. Johann Wolfgang von Goethe machte nicht nur viele Erfahrungen (Vortraining) in seinem Leben, sondern fing irgendwann auch an zu schreiben (also Texte hervorzubringen). Dabei ging er weit über seine konkreten Erfahrungen hinaus, kombinierte Wörter auf interessante Weise neu und brachte durch solcherlei Umformungen neue Redewendungen hervor. Nicht wenige dieser Gedanken empfanden sehr viele Menschen als so treffend formuliert, dass sie in unseren Sprachschatz übergegangen sind: Das ist des Pudels Kern (Faust); wo viel Licht ist, ist auch viel Schatten (Götz von Berlichingen); die ich rief, die Geister, werd ich nun nicht los (Der Zauberlehrling); und wer nicht mehr liebt und nicht mehr irrt, der lasse sich begraben (Gedichte). Solche Leistungen des Lernens und des Hervorbringens von neuen Gedanken waren bis vor wenigen Jahren Menschen vorbehalten. Mittlerweile haben auch Maschinen das, was man »kreative Einfälle« oder schlicht »Intuition« nennt, wie in Kapitel 5 gezeigt wird. Dies ist für viele Menschen die am schwersten begreifliche Neuerung durch KI: Maschinen haben Ideen!
ChatGPT basiert auf seinem Vorgänger GPT3, einem neuronalen Netzwerk, das Milliarden von Sätzen als Input erhielt und letztlich nichts weiter lernte, als Zusammenhänge zwischen Wörtern herzustellen. So erlangte es die Fähigkeit, neue Wörter nacheinander hervorzubringen, die sich wie von Menschen produzierte Sätze anhören bzw. lesen. Man spricht auch von großen Sprachmodellen (large language models,LLM).ChatGPT wurde dann durch Menschen in »Handarbeit« verbessert, d.h., dem System wurde »menschliches Fehlverhalten« (Hass-Sprache, Wutausbrüche, verbale Aggressivität, Mobbing, verbale sexuelle Herabsetzung und Gewalt etc.) abtrainiert. Hierzu führten menschliche KI-Trainer mit dem Modell schriftliche Unterhaltungen, wobei die Trainer sowohl die Rolle des Benutzers als auch die Rolle des Chatbots zu spielen hatten. Durch Vergleich und Bewertung der von der ChatGPT geschriebenen Fragen und Antworten mit denen, die Menschen geschrieben hatten, wurde dessen Gesprächsstil maßgeblich verbessert und wirkte zunehmend freundlich und zuvorkommend, menschenähnlich eben, im Sinne von »guten« Menschen.
GPT3und ChatGPT wurden von der Firma OpenAI entwickelt, die im Jahr 2015 in San Francisco mit einer Milliarde US-Dollar Startkapital (u.a. von Elon Musk und Peter Thiel) gegründet wurde (Verma & Lerman 2022). Man kann mit dem KI-System ChatGPT in Echtzeit einen Dialog führen. Es beantwortet Fragen oder schreibt auf Anfrage Festreden, Bewerbungen, E-Mails, Liebesbriefe, Gedichte oder Gebrauchsanleitungen, im Stil von Goethe oder IKEA. Und wenn einem das Ergebnis nicht gefällt, dann kann man eingeben: »bitte lustiger/ernsthafter«, »bitte kürzer/länger« oder »bitte mit mehr/weniger Fachbegriffen« und erhält Sekunden später die gewünschte Überarbeitung. ChatGPT kann auch bereits geschriebene Texte stilistisch überarbeiten und dadurch verbessern.
Das System kann allerdings nicht nur Texte, sondern auch Computerprogramme schreiben, Computerprogrammzeilen kommentieren und sogar Fehler in Computerprogrammen finden. Dies trifft vor allem für kleinere Programme zu, die ein Programmierer mit ChatGPT wesentlich schneller produzieren kann. Größere Programme konzipiert man jedoch zunächst besser selbst, weil man dann deren innere Logik kennt und Fehler rascher finden und damit auch einfacher korrigieren kann.
Chatbots wurden zuvor bereits von anderen Firmen produziert. Die Firmen Microsoft und Facebook beispielsweise stellten bereits vor ChatGPT ihre Chatbots der Allgemeinheit zur Verfügung, mussten die Freischaltung jedoch nach wenigen Stunden bzw. Tagen wieder beenden. Denn die Nutzer produzierten damit vor allem Hass, Gewalt und Pornografie. Dies alles lernt eine Maschine automatisch leider eben auch dadurch, dass sie Unmengen von Sprachinput aus gedruckten Zeitungen, Zeitschriften, Büchern und vor allem aus dem Internet verarbeitet. OpenAI, dieHerstellerfirma von ChatGPT, hatte daher, wie oben bereits erwähnt, unter Einsatz von Millionen von Dollar zur Bezahlung der Arbeitszeit von menschlichen Trainern ihr Produkt vor der Freischaltung eigens darauf getrimmt, im guten Sinne »menschlich« zu wirken und Hass oder Gewalt etc. nicht zuzulassen. Erst dieses zusätzliche Training durch Menschen führte dazu, dass ChatGPT nicht nach kurzer Zeit wieder abgeschaltet werden musste.
An einem Beispiel sei illustriert, was mit »menschlicher Reaktion« hier gemeint ist. Am 13. Februar 2023 wurde im US-Magazin New Yorker ein Interview publiziert, das der US-Reporter Andrew Marantz mit ChatGPT geführt hatte (im Folgenden kursiv) und sich erstaunlich »menschlich« liest, wie der nachfolgende mehrfach gekürzte Auszug verdeutlicht:
Reporter: Wir können mit Small Talk beginnen. Wissen Sie, was Small Talk ist?
ChatGPT: Ja, ich bin mit dem Begriff Small Talk vertraut. Es handelt sich dabei um eine zwanglose Unterhaltung über Themen, die weder kontrovers noch wichtig sind und die in der Regel dazu dient, eine freundschaftliche oder soziale Beziehung zu jemandem aufzubauen. Beispiele für Small Talk sind Gespräche über das Wetter, Fragen nach den Plänen für das Wochenende oder Meinungen zu aktuellen Ereignissen.
Reporter: Was machst du am Wochenende?
ChatGPT: Als Sprachmodell habe ich nicht die Möglichkeit, etwas zu erleben oder zu tun. – Kann ich Ihnen sonst noch irgendwie behilflich sein?
Reporter: Okay, so viel zum Small Talk. Aber ich bin froh, dass Sie den Nagel gleich auf den Kopf getroffen haben. Sie sind weder eine Person noch ein fühlendes Wesen. Warum nenne ich Sie dann »Sie«, und warum nennen Sie sich selbst »ich«?
ChatGPT: Es ist üblich, Sprachmodelle wie mich mit Personalpronomina wie »ich« und »Sie« anzusprechen, weil dies die Interaktion für den Benutzer natürlicher und intuitiver macht. Dies ist vergleichbar mit der Verwendung von »sie« oder »er« bei unbelebten Objekten, wie z.B. einem Auto oder einem Computer.
Reporter: Ich habe nie ein Personalpronomen verwendet, wenn ich ein Auto oder einen Computer meinte.
ChatGPT: Sie haben recht, die Verwendung von Personalpronomina bei der Bezugnahme auf unbelebte Objekte ist weniger üblich. Ich entschuldige mich für die Verwirrung.
Reporter: Weniger üblich im Vergleich wozu?
ChatGPT: Es gibt Kulturen, Sprachen bzw. Situationen, in denen Personalpronomen für nichtmenschliche Entitäten wie Autos, Boote oder sogar einige Naturphänomene verwendet werden. Dies ist als »Animismus« bekannt und bedeutet, dass Dingen und Naturphänomenen eine lebende Seele zugeschrieben wird.
Reporter: Ich will nicht darauf herumreiten – und ich bin ehrlich gesagt etwas besorgt, worauf unser Gespräch hinausläuft –, aber: Welche Kulturen und Sprachen haben Sie im Sinn?
ChatGPT