ChatGPT, Generative KI - und wir! - Michael Brendel - E-Book

ChatGPT, Generative KI - und wir! E-Book

Michael Brendel

0,0

Beschreibung

Technik von gestern - Herausforderung für heute - Chance für morgen! Wie eine Welle ist eine neue Generation von KI-Tools über uns hereingebrochen. Text- und Bildgeneratoren wie ChatGPT, Gemini oder Midjourney können viele Tätigkeiten effizienter und darüber hinaus ziemlich viel Spaß machen. Doch noch sind viele Fragen offen: Was bedeutet es, dass Computer nun unsere Sprache sprechen? Welche Folgen hat KI für Bildung und Beruf? Wie verändert sich das Internet? Welche Auswirkungen hat die Technologie auf unseren Alltag, unseren Glauben, die Gesellschaft und die Politik? Dieses Buch erklärt in gut verständlicher Sprache, was Generative KI ist, warum die Welt noch nicht bereit dafür ist – und wie eine verantwortungsvolle Nutzung dennoch möglich ist.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern
Kindle™-E-Readern
(für ausgewählte Pakete)

Seitenzahl: 386

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Vielleicht hast du da, wo KI dir helfen kann, gar kein Problem.

Alberto Romero

Bibliografische Information der Deutschen Nationalbibliothek: Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar.

© 2023 Michael Brendel

Verlagslabel: Edition Wortverein

Druck und Distribution im Auftrag des Autors:

tredition GmbH, Heinz-Beusen-Stieg 5,

22926 Ahrensburg, Germany

Das Werk, einschließlich seiner Teile, ist urheberrechtlich geschützt. Für die Inhalte ist der Autor verantwortlich. Jede Verwertung ist ohne seine Zustimmung unzulässig.

Die Publikation und Verbreitung erfolgen

im Auftrag des Autors, zu erreichen unter: Michael Brendel, Kornblumenweg 8, 49808 Lingen

Inhalt

Cover

Urheberrechte

VORWORT

TEIL I: TECHNIK VON GESTERN

KI-Geschichte 1956–2022

Generative KI

TEIL II: HERAUSFORDERUNG VON HEUTE

Versuch einer Einordnung

These 1: Das wirklich Neue ist die Sprache.

These 2: Wir sind noch nicht bereit.

These 3: Die Gesellschaft ist noch nicht bereit.

These 4: Die Entwicklung ist noch nicht bereit.

These 5: Unsere Institutionen sind noch nicht bereit.

These 6: Niemand weiß, wohin die Reise geht.

These 7: Wir haben es in der Hand.

TEIL III: CHANCE FÜR MORGEN

1. Generative KI verantwortungsvoll nutzen

2. Assistent im Alltag

3. Ein Spiegel unserer Sprache

4. Eine Chance für die Bildung

5. Eine Chance für die Teilhabe

6. Eine Chance für die Menschlichkeit

7. Generative KI und Kirche: Eine Herausforderung, die zur Chance werden kann

8. Aufruf zur Gestaltung

GLOSSAR

QUELLEN UND ANMERKUNGEN

Abbildungen

Quellenverzeichnis

ChatGPT Generative KI und wir

Cover

Epigraph

Urheberrechte

VORWORT

QUELLEN UND ANMERKUNGEN

ChatGPT Generative KI und wir

Cover

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

53

54

55

56

57

58

59

60

61

62

63

64

65

66

67

68

69

70

71

72

73

74

75

76

77

78

79

80

81

82

83

84

85

86

87

88

89

90

91

92

93

94

95

96

97

98

99

100

101

102

103

104

105

106

107

108

109

110

111

112

113

114

115

116

117

118

119

120

121

122

123

124

125

126

127

128

129

130

131

132

133

134

135

136

137

138

139

140

141

142

143

144

145

146

147

148

149

150

151

152

153

154

155

156

157

158

159

160

161

162

163

164

165

166

167

168

169

170

171

172

173

174

175

176

177

178

179

180

181

182

183

184

185

186

187

188

189

190

191

192

193

194

195

196

197

198

199

200

201

202

203

204

205

206

207

208

209

210

211

212

213

214

215

216

217

218

219

220

221

222

223

224

225

226

227

228

229

230

231

232

233

234

235

236

237

238

239

240

241

242

243

244

245

246

247

248

249

250

251

252

253

254

255

256

257

258

259

260

261

262

263

264

265

266

267

268

269

270

271

272

273

274

275

276

277

278

279

280

281

282

283

284

285

286

287

288

289

290

291

292

293

294

295

296

297

298

299

300

301

302

303

304

305

306

307

308

309

310

311

312

313

314

315

316

317

318

319

320

321

322

323

324

325

326

327

328

329

330

331

332

333

334

335

336

337

338

339

340

341

342

343

344

345

VORWORT

Game-Changer oder Hype?

Dieses Buch kommt zu spät. Ebenso wie die gesellschaftliche Debatte über die Chancen und Risiken sogenannter Künstlicher Intelligenz, die hinter dem Wust aus Schlagzeilen, Werbeslogans und Schreckensvisionen so langsam zum Vorschein kommt. Eigentlich hätten wir uns schon vor fünf Jahren zusammensetzen müssen, um ein Gespräch zur Zukunft mit KI zu führen. Wir hätten die Entwicklung der Technologie in den vergangenen 20 Jahren analysieren und die Frage diskutieren müssen, was wir eigentlich von der smarten Technik wollen. Wir hätten für uns persönlich und im Austausch miteinander eine Haltung zu den Fragen finden sollen, wo der Nutzen der Technologie die Risiken übersteigt und welcher aktuelle oder künftige Anwendungszweck unsere Zustimmung an ihre Grenzen bringt. Wir – damit meine ich uns alle, jede*n Bürger*in dieses Landes, jeden Menschen in Europa und der Welt, die*der Verantwortung für die heutige Gesellschaft und das selbstbestimmte Leben kommender Generationen empfindet. Vor fünf Jahren wäre diese Debatte zur rechten Zeit gekommen, als die von der Asilomar Conference on Beneficial AI erarbeiteten 23 Prinzipien für eine gemeinwohlorientierte KI auf dem Tisch lagen. Anfang 2017 hatten 100 internationale Forscher*innen und Unternehmer*innen vereinbart, wie KI-Systeme aussehen sollten, damit alle Menschen davon profitieren. Wichtig waren ihnen die technische Sicherheit, die Orientierung an universalen Werten, der Vorzug gemeinwohldienlicher KI-Projekte bei der Vergabe von Fördergeldern und die Beteiligung aller Menschen am durch die Technologie entstehenden wirtschaftlichem Wohlstand.1

Die Asilomar-Prinzipien wurden unter anderem von Facebooks KI-Chef Yann LeCun, dem britischen Astrophysiker Stephen Hawking (†2018), dem Techunternehmer Elon Musk, dem Mitgründer des US-KI-Unternehmens OpenAI Sam Altman und 5725 weiteren Expert*innen auf dem Gebiet unterschrieben. Auch einige Vertreter*innen der EU-Organe hatten mit Ihrer Unterschrift ihre Zustimmung zu den Regeln für gemeinnützige Künstliche Intelligenz erklärt.

Doch in der Fläche war KI damals noch kein Thema. So forderte der europäische Wirtschafts- und Sozialausschuss im Mai 2017 in einer Stellungnahme einen Verhaltenskodex für die Entwicklung, den Einsatz und die Nutzung von KI-Anwendungen, wobei vier Monate vorher 100 internationale Forscher*innen und Unternehmer*innen schon genau solch einen Kodex entwickelt hatten!2 (Die Unterschrift der für die Stellungnahme verantwortlichen EU-Parlamentarierin findet sich übrigens auch unter dem Asilomar-Papier.) In der EU wurde also 2017 zum ersten Mal auf politischer Ebene über Künstliche Intelligenz diskutiert. Während die Parlamentarier*innen in Brüssel und Straßburg also erst mal Artificial Intelligence googelten, verkündete der chinesische Staatsrat einige Wochen später, bis 2030 Weltmarktführer im Bereich KI werden zu wollen. Nach der Hälfte der Zeit ist China auf einem guten Weg dahin.

Und doch kommt dieses Buch zur rechten Zeit. Denn der neueste KI-Trend Generative KI wirft Fragen auf, die unser menschliches Selbstverständnis nicht unberührt lassen. Er wird nicht nur verändern, wie wir mit Computern, Smartphones und Onlinediensten umgehen, sondern er wird den ohnehin nicht zu unterschätzenden Einfluss technischer Systeme auf unser Leben nochmals verstärken. Trotz der beeindruckenden Anwendungen, die in den vergangenen Monaten für Schlagzeilen (und bei vielen auch für Sorgenfalten) gesorgt haben, steht diese Technologie noch ziemlich am Anfang. Noch haben wir die Gelegenheit, eine Position zu beziehen, von der aus wir die neue Generation Künstlicher Intelligenz begutachten, hinterfragen, aber auch: verantwortlich nutzen können

Dazu rufe ich in diesem Buch auf. Denken Sie mit, liebe*r Leser*in, prüfen Sie meine Argumentationslinien auf Schlüssigkeit und Sachlichkeit, nehmen Sie Ihre Emotionen wahr und bilden Sie sich eine Meinung zur Künstlichen Intelligenz 2.0. Denn denken, beurteilen und fühlen können nur wir Menschen.

Ich möchte, dass das so bleibt.3

Technophil oder technophob?

Was ich nicht möchte, ist, dass dieses Buch als Beleg für meine Fortschrittsskepsis oder meinen Fortschrittsglauben betrachtet wird. Beide Sichtweisen wurden mir bereits in Seminaren, auf Podien oder nach meinen Vorträgen vorgeworfen. Eine solche Zuschreibung ließ und lässt mich hinterfragen, ob ich meinen Punkt möglicherweise nicht verständlich genug erklärt habe oder ob meine Eigenwahrnehmung hier deutlich von der Fremdwahrnehmung abweicht. (Paradoxerweise haben das fehlende Bekenntnis zu der einen oder anderen Position und mein Aufruf zur autonomen Urteilsbildung die Verlagsverhandlungen bei meinen vorherigen Büchern mitunter etwas schwierig gemacht.) Deshalb vorweg: Grundsätzlich betrachte ich mich als Optimisten, der Technologie zunächst einmal positiv, wenn auch nicht unkritisch gegenübersteht. In den Industriestaaten gemachte Erfindungen haben einen elementaren Anteil am Leid vieler Menschen auf dieser Welt, ebenso an der Zerstörung von Lebensräumen von Pflanzen und Tieren, dem Auseinanderbrechen von Nahrungsketten, dem Rückgang der Artenvielfalt und der Störung des klimatischen Gleichgewichts dieses Planeten. Gleichwohl haben die menschliche Neugier, unser Entdeckerdrang und ja: auch kommerzielle Motive sehr viel Gutes hervorgebracht. Technologie hat die Erkennung und Behandlung von Krankheiten revolutioniert, den Menschen Wege zur Kommunikation und zum Ideenaustausch eröffnet und dem größten Teil der Menschheit auch Wohlstand gebracht. Letztlich haben wir dank (auch elektronischer) technologischer Erfindungen die Mittel in der Hand, die Probleme dieser Welt zu lösen. Wer in dieser Zeit lebt, gehört zu den ersten Menschen, die die von Menschen gemachten Probleme dieser Welt lösen können! Dieser Aspekt kommt meines Erachtens auch in der Diskussion um Künstlichen Intelligenz zu kurz.

Einen weiten Blickwinkel, der die Möglichkeiten der Technologie ebenso ernst nimmt wie die damit verbundenen Ängste und Sorgen, erhoffe ich mich auch für die Debatte um die neuen, generativen KI-Formen, zu der dieses Buch einen Beitrag leisten soll. Es soll helfen, die Chancen richtig einzuschätzen, negative Folgen zu erkennen, mindern oder gar verhindern zu können. Ich bin davon überzeugt, dass viele der aktuellen und künftigen Anwendungsgebiete Generativer KI in diesem Sinne verantwortungs- und sinnvoll eingesetzt werden können, andere aber begründet abgelehnt werden müssen.

Voraussetzung für diese Beurteilung ist freilich, dass wir überhaupt sprachfähig für die Pros und Kontras sind und den Austausch dazu suchen. Lassen Sie uns hier starten. Holen wir das Beste aus der neuen Technologie heraus!

Sprache und Begrifflichkeiten

An dieser Stelle ein paar Bemerkungen zur Sprache: Dieses Buch benutzt Begriffe, die allesamt hinterfragbar sind. Intelligenz, Kreativität, Sprache, Verstehen und Lernen, die für gewöhnlich Menschen zugesprochen werden, werden in dieser Abhandlung auch auf maschinelle Prozesse angewendet. Obwohl ich davon überzeugt bin, dass Sprache Realitäten schafft und wir kritisch mit ihr umgehen müssen, werde ich die infrage stehenden Begriffe der Lesbarkeit halber nicht in Anführungszeichen oder kursiv setzen, wie ich es sonst bei Hervorhebungen machen werde.

Weil Sprache nicht nur Realitäten schafft, sondern sie auch abbildet, bemühe ich mich in diesem Buch um eine geschlechtergerechte Sprache. Die Nutzung hoch gestellter Sternchen zwischen traditionell Frauen und Männern zugesprochenen Personalpronomen und Wortendungen soll der Vielfalt von Geschlechtern in unserer Gesellschaft Rechnung tragen. Das ist mir besonders wichtig, weil die Technologie, von der dieses Buch handelt, die Reproduktion von Stereotypen verstärkt. In Teil II gehen wir auf dieses Problem ein.

Die Gegner und Gegnerinnen geschlechtergerechter verbaler und schriftlicher Sprache bitte ich um Verständnis für meine Entscheidung, so wie ich mich um Verständnis für ihre Ansichten bemühe. Sprache ist ein Aushandlungsprozess, der in anderen Schriften leidenschaftlich und kontrovers abgebildet wird. Dieses Buch verfolgt jedoch ein anderes Ziel.

KI-Werkzeuge in diesem Buch

Je weiter Computer in ehemals genuin menschliche Tätigkeitsfelder vordringen, desto wichtiger ist eine eindeutige Kennzeichnung ihres jeweiligen Einsatzes. Doch, und hier nehmen eines der Hauptprobleme dieser Abhandlung vorweg: Oft bemerken wir Nutzer*innen die Technologie im Alltag gar nicht! Ein Buch völlig ohne KI zu schreiben etwa ist heute fast unmöglich, zumindest dann, wenn die*der Autor*in einen Computer nutzt. So findet sich die Technologie unter anderem in Suchmaschinen und Antivirensoftware. Auch Generative KI hat schon Eingang in diverse Apps und Programme gehalten, beispielsweise ins Bildbearbeitungsprogramm Adobe Photoshop. Künftig werden auch das Windows-Betriebssystem sowie viele Anwendungen von Google von der Technologie Gebrauch machen.4 Die Officeanwendung LibreOffice, mit der ich das Manuskript zu diesem Buch verfasst habe, ist zwar weitgehend KI-frei. Doch in der Recherche sowie der Korrektur haben mir verschiedene Programme und Onlinedienste geholfen, die mit Generativer KI arbeiten. Auf die meisten werden wir im Laufe dieses Buches zurückkommen.

Recherche

• Zur Übersetzung längerer englischer Textpassagen habe ich den Onlineübersetzer DeepL benutzt.

• Bei der Transkription von Podcasts kamen die MacOS App JoJo und der Assistent für Sprache der Onlineplattform Fobizz zum Einsatz. Beide nutzen das KI-Modell Whisper von OpenAI.

• Die KI-Suchmaschine Perplexity.ai habe ich zur ersten Sichtung wissenschaftlicher Forschungsarbeiten eingesetzt. Ich habe es als enorm hilfreich empfunden, dass die Anwendung lange und mit Fachtermini gespickte Abhandlungen zunächst daraufhin durchgesehen hat, ob sie meiner aktuellen Fragestellung neue Aspekte hinzufügen oder nicht. Auch mit dem Vergleich von Dokumenten sowie der Zusammenfassung langer Onlineartikel habe ich Perplexity gelegentlich beauftragt, bevor ich bei entsprechender Eignung selbst in die Texte eingestiegen bin.

Korrektur

• Claude.ai habe ich als hilfreichen Gutachter für von mir verfasste Textpassagen empfunden. Im Fokus stand die Prüfung der logischen Schlüssigkeit sowie der Wortwahl bei komplexen Sachverhalten.

• Mit Perplexity.ai habe ich eine Anweisungskette erstellt, die mir aus Onlineseiten und -dokumenten automatisch eine Quellenangabe im von mir vorgegebenen Endnotenformat generiert.

• Vor dem Buchsatz habe ich Rechtschreibung und Grammatik mithilfe des KI-Dienstes LanguageTool überprüft.

Darüber hinaus gehende Einsätze Künstlicher Intelligenz mache ich durch einen Hinweis in den Fußnoten kenntlich, direkten Output von Textgeneratoren zusätzlich durch eine andere Schriftart. Hinweise zu den Abbildungen in diesem Buch finden sich auf der letzten Seite.

Mit dieser Aufstellung möchte ich meinem eigenen Anspruch an journalistische Transparenz gerecht werden. Ich hoffe, dass dieses Buch ein Beispiel für eine verantwortungsvolle Nutzung von KI-Werkzeugen ist. Der kreative Prozess des Denkens, Formulierens, Schreibens sowie des Buchsatzes und der grafischen Gestaltung liegt in diesem Buch jedoch beim Autor, das sei an dieser Stelle bekräftigt.

Aktualitätshinweis

Dieses Buch kommt zur rechten Zeit. Ob es aber noch aktuell ist, wenn Sie das Taschenbuch oder Ihren E-Book-Reader in den Händen halten und anfangen zu lesen, vermag ich nicht zu sagen. Bei meinen vorherigen Büchern war ich zuversichtlich, dass die Halbwertzeit meiner Thesen einige Jahre betragen würde. Bei der Generativen KI, von deren Möglichkeiten die meisten Menschen vor zwei Jahren noch nichts gehört hatten, bin ich da weniger sicher. Worüber werden wir zwei Jahre nach Drucklegung des Buches sprechen?

Die Namen der hier diskutierten Tools werden dann möglicherweise anders lauten, und vielleicht (hoffentlich!) ist das eine oder andere hier angerissene Problem dann gelöst. Vielleicht hat auch eine der in diesem Buch erwähnten wissenschaftlichen Arbeiten ihren Anteil daran. Doch andere Ansätze, die hier geschildert werden, werden dann widerlegt sein. Es ist dem enormen Tempo der Entwicklung geschuldet, dass viele der vor allem in Kapitel I.2 zitierten Papers Erstveröffentlichungen sind, deren Begutachtung durch andere Wissenschaftler*innen noch nicht stattgefunden hat. Um den einem Druckprodukt innewohnenden Mangel an Aktualität ein wenig zu kompensieren, habe ich auf meiner Homepage einige Initiativen und Dossiers verlinkt, die auch nach der Veröffentlichung dieses Buches aktuelle Informationen zu den hier behandelten Themen bereithalten.5

An Teil II und III wird der Zahn der Zeit nicht so schnell nagen. Dort geht es um grundsätzliche Fragen zu den Auswirkungen Generativer Künstlicher Intelligenz. Und es geht um unsere Antworten, die wir darauf finden müssen. Auch in den kommenden Jahren müssen wir diese immer wieder reflektieren, justieren und diskutieren – möglicherweise gerade dann, weil wir uns in dieser Zeit so schnell an so viel gewöhnen.

Ich hoffe also, dass wir in zwei oder drei Jahren überhaupt noch über die Folgen der Generativen KI für uns, die Gesellschaft und eine für alle Menschen lebenswerte Zukunft sprechen. Wenn die hier niedergeschriebenen Denkimpulse, Fragen und Lösungsansätze einen bescheidenen Beitrag zu einer nachhaltigen Debatte über den guten Umgang mit der Schlüsseltechnologie KI leisten, ist das Ziel dieses Buches erreicht.

Datum der Drucklegung dieses Buches ist der 15. Februar 2024.

Dank

Ich danke meinen wunderbaren Kindern Henri, Helene und Eva und meiner geliebten Frau Verena für das große Verständnis, das sie mir in den vergangenen Monaten entgegengebracht haben. Es waren doch einige Hundert Stunden, die ich zwischen Mai 2023 und Februar 2024 mit dem Recherchieren, Formulieren und Redigieren verbracht habe. Während dieser Zeit war ich häufig – und in Gedanken sogar noch häufiger – bei meinem Buch statt bei meiner Familie. Dass ich neben meinem Hauptberuf und meinen Vorträgen solch ein Vorhaben umsetzen konnte, war nur durch die emotionale Rückendeckung zu Hause möglich.

Liebe Familie, ich bin unendlich dankbar, euch zu haben!

Ein weiterer großer Dank geht an meine Mutter für die mühevolle Korrekturarbeit und die wertvollen Anregungen, die sie ins Manuskript geschrieben hat. Der professionelle Blick einer erfahrenen Germanistin auf Ausdruck und Verständlichkeit sowie ihr Außenblick auf das Thema haben in diesem Buch viele positive Spuren hinterlassen.

TEIL I: TECHNIK VON GESTERN

KI-Geschichte 1956–2022

Backe-Backe-KI-Kuchen

Klassische Computerprogramme funktionieren wie ein Kuchenrezept: Befolge die Anweisungen des Rezepts der Reihe nach, und du bekommst einen Kuchen. So wie meine Mutter einen Sandkuchen stets nach dem Rezept ihrer eigenen Mutter backt (mit zerlassener Butter und etwas Speisestärke) und er dementsprechend immer gleich lecker schmeckt, gewährleistet die Programmierung von Apps und Programmen bei derselben Datenlage (Zutaten) und denselben Verarbeitungsschritten (Rezept) dasselbe Ergebnis (Omas Sandkuchen). Diese Handlungsabfolge nennt man Algorithmus.

KIs beruhen auch auf Algorithmen, allerdings auf speziellen, nämlich lernenden Algorithmen. Wenn wir von KI sprechen, meinen wir fast immer die Machine Learning-Technologie (ML). Im Gegensatz zur exakten Handlungsvorschrift des Kuchenrezeptes, das handschriftlich notiert auf der letzten Seite des dicken roten Backbuches meiner Mutter steht, erarbeitet der KI-Algorithmus sich den Weg zum Kuchen selbst. Dazu nutzt er heute meist das Prinzip Künstlicher Neuronaler Netze (KNNs). Diese Programmiertechnik ist an die Struktur unseres Gehirns angelehnt. So wie dort ein dichtes Geflecht von Neuronen Informationen aus dem Körper verarbeitet, setzt ein Künstliches Neuronales Netz auf digitale Knotenpunkte. Die vorliegenden Daten – in unserem Falle alle Zutaten, die im Backbuch genannt werden – durchlaufen beim Anlernen des KI-Algorithmus nun dieses Netz. Dabei lernt das Netz, welche Mengen welcher Zutaten in welchem Arbeitsschritt und unter welchen Bedingungen zu einem guten Backergebnis führen und welche nicht.

Im konkreten Anwendungsfall Sandkuchen weiß das Netz also grob, wo es ansetzen muss. Dann probiert es wiederum verschiedene Wege aus, die zum vorgegebenen Ergebnis führen. Zum Sandkuchen-Erfolg führt beispielsweise, wenn der Kuchen bei 180 Grad im Ofen backt. Weniger erfolgreich ist, wenn die KI harte Butter statt zerlassener verwendet. Das alles lernt die KI, und je mehr Daten vorliegen – also Informationen über den gewünschten Kuchen und die zur Verfügung stehende Zutaten und Verarbeitungsschritte, desto schneller kommt der KI-Algorithmus ans Ziel. Wobei schnell nicht heißt, dass er mit seinem Können schnurstracks in Richtung Kaffeetafel marschiert. Tatsächlich verläuft der Lernprozess alles andere als geradlinig. Könnten wir in das KNN hineinschauen, würden wir Mehl, Butter und Eier sehen, wie sie durch ein dichtes Netz künstlicher Neuronen flitzen und versuchen, den besten Pfad zum Ziel zu finden. Und je komplexer das Netzwerk ist – wir sprechen von tiefem, Deep Learning – desto verzweigter ist der Weg zum Ziel. Es müssen also Umwege verhindert werden, an Gabelungen die richtige Richtung gewählt und Sackgassen gemieden werden.

Die KI realisiert diesen Lernprozess durch die Teilung der Gesamtaufgabe in verschiedene Teilschritte, für die sie jeweils ein bestimmtes Ergebnis vorhersagt. Wenn dieses nicht eintritt, korrigiert sie die Gewichte der Verbindungen, der Verarbeitungspfad ändert sich und sie versucht es erneut – immer wieder, Trial-and-Error – bis schlussendlich ein Ergebnis erreicht ist, das mit hoher Wahrscheinlichkeit dem gewünschten Ergebnis entspricht.

Wenn meine Oma auf diese Weise Backen gelernt hätte, hätte das eine ungeheure Lebensmittelverschwendung bedeutet. Im algorithmischen Netz bedeutet sie nur einen kräftigen Stromverbrauch. Hierzu später mehr.a

Prompt: Bleistift-Skizze mit abstrakten Formen zum Thema: Mehl, Butter und Eier flitzen durch ein dichtes Netz künstlicher Neuronen und versuchen, den besten Pfad zum Ziel zu finden. Bleistift, Skizze, Graustufen, feine Linien, Schraffuren, abstrakt, heller Hintergrund (DALL-E 3/Firefly)

Legen wir das Backbuch zur Seite. Denn auch wenn das obige Beispiel die Funktionsweise Künstlicher Neuronaler Netze recht anschaulich zeigt, dürfte die algorithmische Kuchenproduktion eher ein Randthema in der Forschung sein. Andere Anwendungsbereiche sind da viel präsenter: Die KI-Systeme des Jahres 2023/24 können Gedichte schreiben, Bilder malen, Autos steuern, Apps programmieren, Produktionsprozesse optimieren und Ärzten in der Diagnostik helfen. Das, was die Technologie heute alles kann, wirkt manchmal surreal. Wir verstehen nicht wirklich, was genau da geschieht, wenn der Bildgenerator aus einem Pixelchaos ein ansehnliches Bild erstellt. Auch auf mich, der sich seit einigen Jahren intensiv mit Künstlicher Intelligenz beschäftigt, wirkt es noch immer etwas befremdlich, wenn der Chatbot aus einem Textbefehl plötzlich ein Gedicht oder eine rhetorisch beeindruckende Rede macht. Doch mit Magie hat das alles nichts zu tun. Wie wir gesehen haben, verbergen sich hinter den schillernden Begriffen Künstliche Intelligenz und Maschinelles Lernen lediglich Codezeilen, Wahrscheinlichkeitsrechnung und jede Menge Daten, die von kräftigen Prozessoren durch wilde Programmstrukturen gejagt werden. Und die allesamt nicht perfekt sind, sondern manchmal Fehler machen oder unerwartete Ergebnisse liefern.

In unserer KI-Küche lief aber alles glatt. Dank des Maschinellen Lernens kann der KI-Algorithmus nun Sandkuchen backen wie meine Mutter. Auch wenn ich sicher bin, dass ich den Unterschied schmecken werde.

Die Geburtsstunde der KI

Wenn man sich die Schlagzeilen der letzten Monate anschaut, scheint KI der neueste Hit im Technikbereich zu sein. Dabei gibt es den Begriff und die dahinterstehende Idee bereits seit fast 70 Jahren! In den Sommerferien des Jahres 1956 hat der US-amerikanische Mathematiker John McCarthy gemeinsam mit einigen Fachkollegen im Dartmouth College in New Hampshire ein Studienprojekt durchgeführt, in dessen Projektantrag er den Begriff Künstliche Intelligenz zum ersten Mal verwendete. Das Ziel des Dartmouth Summer Research Project on Artificial Intelligence war, herauszufinden, wie Maschinen dazu gebracht werden können, Sprache zu benutzen, Abstraktionen vorzunehmen und Konzepte zu entwickeln, Probleme zu lösen, die zurzeit dem Menschen vorbehalten sind, und sich selbst weiter zu verbessern.6

Wann immer ich den Text lese, überkommt mich ein leichter Schauer ungläubigen Staunens. Bereits vor 68 Jahren wurden Fragen gestellt, die im Blick auf die neueste Generation lernender Systeme mehr als aktuell erscheinen: Können Maschinen denken? Können Computer wie ein Mensch abstrahieren und Probleme lösen? Und was bedeutet es, wenn sich solche Systeme selbst weiterentwickeln?

Die Fragen der KI-Gründerväter zielten sogar über den aktuellen Forschungshorizont hinaus. Während die meisten zeitgenössischen Entwickler*innen sich damit zufriedengeben, kognitive Intelligenz in Computersystemen abzubilden – denn dass KIs mittelfristig emotionale oder soziale Intelligenz erlangen, halte zumindest ich weder für wahrscheinlich noch für wünschenswert – starteten die Mathematiker in Dartmouth mit der Annahme in ihre Beratungen,

dass prinzipiell jeder Aspekt des Lernens – oder jede andere Eigenschaft der Intelligenz – so genau beschrieben werden kann, dass eine Maschine sie simulieren kann.7

Das Seminar in Dartmouth wird heute als Geburtsstunde der KI-Forschung bezeichnet, obwohl es dort nicht den einen großen Durchbruch gab. Wie es einer der Teilnehmer beschrieb, war die Zusammenkunft eher eine achtwöchige Konferenzparty, bei der jeder vor Ideen sprudelte.8 Neben vorhersage- und regelbasierten Ansätzen zur Künstlichen Intelligenz (die es auch heute noch gibt und vor allem in Spezialanwendungen ihre Stärken ausspielen) wurden auch KNNs als Möglichkeit diskutiert, Intelligenz in Computern abzubilden.

Das theoretische Fundament für die heutige KI war also 1956 schon vorhanden. Dass es ungefähr bis zur Jahrtausendwende dauerte, bis die Ideen der Gründerväter Realität wurden, liegt zum einen daran, dass einer der Erfolgsfaktoren heutiger KI erst 1986 erfunden wurde. Das Konzept der Backpropagation führte Feedbackschleifen in die KI-Netze ein. Wir können sie uns als Nachhilfelehrerin vorstellen, die dem Neuronalen Netz hilft, aus seinen Fehlberechnungen zu lernen.9

Künstliche Intelligenz dümpelte aber vor allem deshalb so lange in der Theorie herum, weil es in den ersten Jahrzehnten nach Dartmouth an den Hauptzutaten für eine effiziente KI mangelte. Es fehlten genügend Daten und ausreichend Rechenpower.

Frust, Frost und Fortschritt

Zu Zeiten der Dartmouth-Konferenz waren Computer groß wie Einfamilienhäuser (der erste wissenschaftliche Großrechner IBM 701 brachte es auf bis zu 12×8 Meter), hungrig wie Löwen (er benötigte bis zu 93 Kilowatt Strom), langsam wie Schildkröten (sein Prozessor war ca. 41.000 Mal langsamer als Intels heutige Einsteiger-CPU i3-13100) und teuer wie Diamanten (die Recheneinheit kostete bis zu 15.000 USD Miete/Monat).10 Dementsprechend wenige Exemplare gab es, und diese produzierten folglich auch nur wenig Daten. Der KI-Motor war also nicht nur leistungsschwach, sondern ihm fehlte auch der Treibstoff.

So folgte dem heißen KI-Sommer in Dartmouth zunächst ein erster Hype (der Nobelpreisträger Herbert A. Simon behauptete 1960, in 20 Jahren könnten Maschinen allemenschlichen Arbeiten erledigen11), dann aber schnell ein ziemlich kalter und ziemlich langer KI-Winter. Frustriert von den unerfüllten Erwartungen stoppten Unternehmen und öffentliche Geldgeber in den 1970ern diverse Projekte, strichen Forschungsgelder zusammen und legten Studien auf Eis.12

Der Schlüssel zum Tauwetter waren Mikroprozessoren. Die Ende der Sechzigerjahre vom US-Chiphersteller Intel erfundene Technologie machte in den drei darauffolgenden Jahrzehnten große Schritte und bringt bis heute immer kleinere und schnellere Recheneinheiten hervor. Statt mit Vakuumröhren wie anno 1956 arbeiten Computersysteme heute mit Transistoren, die im Falle des erwähnten Intel-i3-Prozessors nur noch 0,00001 mm groß sind und deren Menge schon lange jenseits der 1 Mrd. pro Prozessor liegt.13 Auch das Lesen und Schreiben digitaler Daten funktioniert heute völlig anders. Bits und Bytes werden heute meist auf Festplatten oder Flashspeichern gesichert.

Diese sind viel schneller als die Magnet- oder Lochkartenbänder der 1950er, weil sie nicht erst das ganze Band nach einer Datei absuchen müssen, sondern direkt darauf zugreifen können. Wer auf einer Musik- oder Videokassette schon einmal nach einer bestimmten Stelle gesucht hat, wird diese kleine Revolution nachvollziehen können.

Die Entwicklung kleinerer Recheneinheiten ermöglichte also immer kleinere und preiswertere Computer, die zunächst als Industrierechner und Büroserver, später als Heim-PCs und noch später als Laptops, Notebooks, Tablets, Handys und Smartphones immer mehr Aufgaben erledigen konnten. Vor allem der Einzug von Computern in Privathaushalte, der in den 1980ern begann, beschleunigte die IT-Entwicklung enorm. Auch die in elektronischen Geräten verbauten Sensoren, die physikalische Reize wie Temperatur, Erschütterung oder Helligkeit in Daten umwandeln, wurden immer kleiner, leistungsfähiger und preiswerter. Die Datenmenge wuchs weiter.

Und dann kam das Internet. 1997 waren 11 Prozent der Menschen in den Industriestaaten online, drei Jahre später mit 31 Prozent fast dreimal so viele und im Jahr 2004 bereits mehr als die Hälfte.14 Und die wollten etwas sehen. So entstanden Internetredaktionen, E-Mailanbieter, Wetterdienste, Spieleportale, Bank-Anwendungen und nicht zu vergessen: ganz viel Werbung und ganz viel Porno – Branchen, die bis heute zu den größten Datenquellen im Netz gehören!

Die Datenmenge wuchs weiter, als Anfang der 2000er Soziale Netzwerke populär wurden und die Internetnutzer*innen ermunterten, selbst Inhalte zu produzieren. Sie erhöhte sich erneut, als in den Zehnerjahren Smartphones populär wurden und den Menschen ermöglichten, von jedem Ort der Welt Internetinhalte zu konsumieren und zu produzieren. Und schließlich reihten sich im zweiten Jahrzehnt des neuen Jahrtausends auch Computer selbst in die Reihe der Datenproduzenten ein, in Gestalt vernetzter Produktionsmaschinen, smarter Kühlschränke oder Staubsaugerroboter, die mit dem Internet verbunden sind. Das Internet of Things gehört heute mit über 10 Mrd. online-fähigen Geräten zu den fleißigsten Datenproduzenten überhaupt.15

Das neue Jahrtausend

Daten und Power waren zu Beginn des Millenniums also vorhanden, und so nahm die KI-Entwicklung wieder Fahrt auf – im wahrsten Sinne des Wortes. 2002 kam der erste autonom navigierende Staubsauger auf den Markt (iRobots Roomba), die KI-gesteuerte Auswertung diverser Datenquellen wie Standort, Geschwindigkeits- und Umgebungssensoren führte zu Fortschritten bei selbstfahrenden Autos (Tesla wurde 2003 gegründet, Googles Self-Driving Car Project 2009 und Uber 2010) und Hondas humanoider Roboter Asimo reicht Messebesucher*innen seit dem Jahr 2000 Getränke an. Für Aufsehen sorgten auch die KI-Systeme, die Menschen in Strategiespielen besiegten. Bereits 1997 hatte der IBM-Computer Deep Blue in einem öffentlichkeitswirksamen Match Schachgroßmeister Garri Kasparow geschlagen (allerdings nicht mit Machine Learning, sondern mit regelbasierter KI), 2007 folgte die kanadische KI Chinook, die im Dame-Spiel unschlagbar war, 2011 gewann IBMs Watson das TV-Quiz Jeopardy, 2014 sorgte Google mit AlphaGo für Schlagzeilen, das sich im bislang als unknackbar geltenden Brettspiel Go gegen den amtierenden Weltmeister durchsetzte. Zwei Jahre später setzte das Unternehmen mit AlphaGo Zero sogar noch einen drauf, ein System, das sich das Spiel selbst beigebracht hatte und gleich auch noch übermenschlich Schach sowie das japanische Brettspiel Shogi spielen konnte.

Auch in Kartenspielen wie Poker und Computerspielen (Breakout, Starcraft 2 uvm.) erreichten KI-Systeme medienwirksame Erfolge.16

Weniger von der Öffentlichkeit beachtet, aber für die weitere Entwicklung wegweisend, war die Integration Maschinellen Lernens in die Sprach- und Bilderkennung. Ohne mit hunderten Stunden digitalem Audiomaterial auf das Erkennen menschlicher Sprache trainiert worden zu sein, wären Alexa, Siri und der Google Assistant (noch?) schwerer von Begriff. Ohne die tiefen Neuronalen Netze, die 2016 in Googles Übersetzungs-App integriert wurden und die auch den deutschen Mitbewerber DeepL antreiben, würden die zu übersetzenden Sätze noch heute Wort für Wort übersetzt. Stattdessen erkennen die automatischen Dolmetscher nun inhaltlich zusammenhängende Wörter und den Kontext, in dem sie stehen. Könnten die Kamera-Apps unserer Smartphones nicht auf ein Gedächtnis von Millionen vorher analysierter Fotos zurückgreifen, wäre das Entsperren mit Face-ID, das Erkennen von Personen in Smartphonegalerien oder der Tiefenschärfe suggerierende Porträt-Effekt nicht denkbar. Das alles ist KI, und zwar bereits seit der Mitte des letzten Jahrzehnts!

Auch im Dienste der Wissenschaft stehen KI-Programme bereits seit Jahren. So werden lernende Algorithmen beispielsweise in der Meteorologie zur Simulation von Wetterlagen eingesetzt, in der Entwicklungshilfe zur Kategorisierung von Projekten, in der Medizin zur Erkennung von Hautkrebs, der Entwicklung neuer Medikamente und der Erstellung individueller Therapiepläne.17

Rufende im Walde

KI ist heute überall. KNNs verstecken sich in elektronischen Geräten, in Programmen und Apps, in Industriemaschinen und Onlinediensten. Als Faustregel lässt sich sagen: Wo große Datenmengen in hoher Geschwindigkeit sortiert, kategorisiert und zugeordnet werden müssen, da ist Maschinenintelligenz nicht weit. Meist nehmen wir sie gar nicht wahr. Wenn wir unser Handy für ein Foto zücken, denken wir nicht daran, dass wir Bilddaten durch ein KNN schicken. Wenn wir mit Google Maps von A nach B gelangt sind, wissen wir nicht, dass uns ein lernender Algorithmus um eine Straßensperrung und einen Stau herumgeführt hat. Es scheint, als würde das John McCarthy zugeschriebene Bonmot noch immer gelten:

Sobald es funktioniert, nennt es niemand mehr KI.

Ist das ein Problem? Nicht unbedingt. Ich bin der festen Überzeugung, dass die KI-Technologie in den allermeisten Fällen verantwortlich eingesetzt und in Anwendungen eingebettet wird. Doch weil die großen Techkonzerne, Entwickler*innen und Softwareschmieden verständlicherweise nicht verraten, woran sie gerade arbeiten, bleibt ein Risiko. Wir können nicht ausschließen, dass die Algorithmen, die in diesem Moment programmiert werden, die Anwendungszwecke, für die sie bestimmt sind, sowie die zum Anlernen verwendeten Daten kritisch sind. Denn die Industrie ist im KI-Rausch. Der Markt für intelligente Produkte und Anwendungen war 2022 137 Mrd. US-Dollar wert, das Marktforschungsunternehmen Grand View Research prognostizierte in demselben Jahr eine jährliche Wachstumsrate von fast 40 Prozent bis 2030. Wohlgemerkt: Die Prognose stammt aus der Zeit vor dem Launch von ChatGPT und Co.!18

Seitdem sind ganz neue Märkte entstanden. Halbleiter, die Grundbausteine von Chips und Prozessoren, die für Generative KI optimiert sind, gab es im Jahr 2022 fast gar nicht. Für das Jahr 2024 rechnet der Wirtschaftsprüfungskonzern Deloitte in diesem Bereich mit 40 Mrd. US-Dollar und 2027 sogar mit 300 Mrd. US-Dollar Umsatz!19 In einer Zeit des KI- (und Geld-)Hypes sollten wir also für möglich halten, dass bei der Programmierung der smarten Algorithmen gesellschaftliche Spielregeln ignoriert, ethische Fragen übersehen und langfristige Folgen falsch eingeschätzt oder kleingeredet werden.

Wir kennen solche Beispiele aus der Vor-ChatGPT-Zeit: den Chatbot Tay, der 2016 innerhalb weniger Tage von der Twitter-Community zum Nazi gemacht wurde; einen Bilderkennungsalgorithmus, der Menschen mit dunkler Hautfarbe der Kategorie Gorilla zuordnete; eine Bewerbungs-KI, die Frauen systematisch diskriminierte.20

Und auch schon vor ChatGPT & Co. gab es kritische Stimmen. Viele Wissenschaftler*innen, Journalist*innen und Autor*innen haben immer wieder gewarnt, was geschehen könnte, wenn die KI-Entwicklung in dem Tempo voranschreitet, das sie seit der Jahrtausendwende draufhat (und das sich 2023 abermals beschleunigt hat). Sie haben Berechnungen angestellt und Vermutungen geäußert, welche Folgen lernfähige Maschinen für den Arbeitsmarkt hätten, welche Rolle die Qualität der Daten dabei spielt und was geschehen könnte, wenn die Technologie sich immer weiter dem Level menschlicher Intelligenz annähern, dieses irgendwann erreichen und es möglicherweise überschreiten würde. Denn dann, so die Befürchtung, würde uns Menschen ein Kontrollverlust drohen. Vor solchen möglicherweise unerwünschten, aber – Stand heute – technisch nicht unmöglichen Szenarien haben der Astrophysiker Stephen Hawking, der Philosoph Nick Bostrom, der Physiker Mark Tegmark, der Historiker Yuval Noah Harari und der (umstrittene, aber im Hinblick auf KI fraglos fachkundige) Unternehmer Elon Musk gewarnt, um nur einige zu nennen. In meinem Buch Künftige Intelligenz – Menschsein im KI-Zeitalter habe auch ich 2019 für einen intensiven Austausch zu der Frage geworben, wie wir unser Menschsein im KI-Zeitalter definieren.21 Wenn wir keine Haltung zur KI entwickeln, davon war und bin ich überzeugt, sind wir nicht nur sprachlos für eines der bedeutendsten Themen dieser Zeit, sondern sind algorithmischen Irreleitungen und Manipulationen schutzlos ausgeliefert.

Ich bin froh, dass ich das wichtigste Gespräch unserer Zeit, wie Mark Tegmark es nennt, in den vergangenen Jahren mit vielen Menschen führen durfte. Und ich freue mich, dass die Warnungen von Hawking und Co. nicht nur in der Wissenschaftsbubble, sondern vereinzelt auch in populären Medien Widerhall gefunden haben. Doch die breite Bevölkerung erreichten sie nicht. Dass und was über die möglichen Folgen der KI-Technologie diskutiert wurde, blieb den meisten Menschen ebenso verborgen wie die Tatsache, dass Künstliche Intelligenz schon damals allgegenwärtig war.

Ich bedaure zutiefst, dass der breite Austausch, den die wichtige Frage nach unserer Zukunft mit KI eigentlich gebraucht hätte, ausgeblieben ist. Denn unsere Zukunft mit KI ist nun ein gutes Stück weiter vorgerückt.

(a) Plausibilität geprüft durch GPT-4, 19.6.2023 und Claude 2, 26.9.2023

Generative KI

Paukenschlag ChatGPT

Doch zunächst zur Gegenwart mit KI. Die ist geprägt von einer Entwicklung, die wir in der Biologie wohl als Evolutionssprung bezeichnen würden.

Die enormen Fortschritte, die selbstlernende Algorithmen in den vergangenen Jahren gemacht haben, basieren auf den wachsenden Fähigkeiten tiefer Künstlicher Neuronaler Netze, immer genauer und schneller Strukturen in Daten erkennen zu können. Dank neuer Netzarchitekturen und Fortschritten in der Sprachverarbeitung können KI-Tools inzwischen aus antrainierten und per Textbefehl eingegebenen Daten selbst Inhalte erzeugen. Auf unseren Bildschirmen erscheinen Texte, Bilder und Grafiken, die es genauso noch nie gegeben hat. Stimmen, Geräusche, Musik und Videos, die nie ein Mensch zuvor genauso gehört hat, klingen aus den Lautsprechern. Bei einem Menschen würden wir sagen: Er hat seine kreative Ader entdeckt.

Es ist nicht so, dass sich die Entwicklung nicht angekündigt hätte. Ein paar Beispiele: 2019 veröffentlichte das bislang eher unbekannte Unternehmen OpenAI erste Ergebnisse seiner Forschung am Sprachmodell GPT (Generative Pre-Trained Transformer). Der Nach-Nachfolger GPT-3 war Mitte 2020 bereits in der Lage, Nachrichtenmeldungen zu schreiben, die laut einer Studie nur jede*r zweite Proband*in als computergeneriert erkannte.22 Bereits im Februar 2019 war die Website thispersondoesnotexist.com online gegangen, die fotorealistische Bilder von Menschen zeigte, die nie gelebt haben. Und das luxemburgische Unternehmen AIVA hatte bereits 2017 seine gleichnamige Komponier-KI vorgestellt, die nach einem Training mit 30.000 klassischen (menschlichen) Kompositionen selbst Melodien schreiben konnte. Bis heute entwirft AIVA in kommerzieller Mission Soundtracks für Computerspiele und Imagefilme.23

Ganz neu ist Generative KI also nicht. Doch in den Blick der Öffentlichkeit rückten ihre Fähigkeiten erst in der zweiten Jahreshälfte 2022, als gleich mehrere Werkzeuge zur Erstellung von Texten und Bildern für die Allgemeinheit zugänglich gemacht wurden.

Im September 2022 gab OpenAI DALL-E 2 für die Öffentlichkeit frei.24 Das Onlinetool generiert nach Eingabe einer in ein Textfeld eingetippten Beschreibung (genannt Prompt) Bilder, die je nach Wunsch der*des Nutzer*in eine bestimmte Kunstrichtung simulieren oder die im Prompt beschriebene Situation im Comicstil, als Grafik oder nahezu fotorealistisch darstellen. Das Bild eines auf einem Pferd reitenden Astronauten, mit dem OpenAI seinen Bildgenerator bewarb, spülte wochenlang durch die Social-Media-Kanäle, begleitet von einer stündlich wachsenden Zahl von Nachahmermotiven. Dass die Bilder nach einer kurzen Registrierung direkt auf der DALL-E-Webseite erstellt werden können, mag der Grund dafür sein, dass der Bildgenerator Midjourney anfangs im Schatten des Mitbewerbers stand, obwohl er bereits im Juli 2022 in eine offene Betaphase gestartet war. Bis heute ist Midjourney nur über die Kommunikationsplattform Discord zu erreichen, was deutlich umständlicher ist als die direkte Texteingabe auf der DALL-E-Webseite oder über ChatGPT, in das DALL-E mittlerweile integriert ist. Eine Webseite zur komfortableren Nutzung von Midjourney ist aber in Planung.

Prompt: A pencil sketch of a female astronaut riding a horse in space. Full image, white border, bright background, grayscale, fine lines, hatching, abstract (DALL E-3/Firefly)

Dass Midjourney seinem Mitbewerber in nichts nachstand, belegte der US-amerikanische Computerspiel-Designer Jason Allen, als sein mithilfe von Midjourney generiertes Bild Théâtre d‘Opéra Spatial (Weltraumopern-Theater) im August 2022 einen Preis auf dem Volksfest Colorado State Fair in Pueblo/Colorado gewann.25KI gewinnt Kunstpreis! Die Schlagzeilen ließen nicht lange auf sich warten.

Im selben Monat wie DALL-E 2 wurde auch Stable Diffusion veröffentlicht. Der vom Londoner Start-up Stability AI initiierte Bildgenerator basiert auf einem KI-Modell der Ludwig-Maximilians-Universität München, die neben einigen Unternehmen auch an der Entwicklung des Modells beteiligt waren. Im Gegensatz zu seinen Konkurrenten ist Stable Diffusion quelloffen. Jede*r Entwickler*in kann das Modell in eigene Projekte einbinden und eigene Datensätze trainieren. So ist die Bilderzeugung sowohl in Onlineangeboten verschiedener Anbieter als auch in diversen Apps und Programmen möglich. Es ist auch die einzige Bild-KI, die ohne Internetanbindung auf einem (leistungsstarken) PC oder Mac lauffähig ist. Mittlerweile gibt es diverse Modelle, die teils auf Stable Diffusion aufsetzen, teils aber auch Eigenentwicklungen sind. Erwähnenswert ist Firefly des Softwarekonzerns Adobe, das in die Grafikprogramme des Unternehmens integriert ist und auf der Produkthomepage als Text-zu-Bild-Generator verwendet werden kann. Adobe hat beim Training auf Inhalte seiner eigenen Grafik- und Fotodatenbank Adobe Stock zurückgegriffen. Auch lizenzfreie und ehemals geschützte Bilder, deren Urheberrechtsschutz ausgelaufen ist, haben in Firefly Eingang gefunden. Durch die sichere Herkunft der Trainingsdaten ist das Modell laut Adobe auch im wirtschaftlichen Umfeld sicher nutzbar.26

Im Gegensatz zur Bildproduktion war die algorithmische Textproduktion lange Zeit mit dem Namen eines einzigen Tools verbunden: ChatGPT. Der auf dem Sprachmodell GPT-3 beruhende Chatbot wurde am 30. November 2022 der Öffentlichkeit zugänglich gemacht und wurde rasend schnell populär. Innerhalb von fünf Tagen hatten sich 1 Mio. Menschen für den Dienst registriert, nach 40 Tagen waren es 10 Mio. Menschen27 und im November 2023 verkündete das Unternehmen, dass 100 Mio. Nutzer*innen den Textbot mindestens einmal pro Woche nutzen würden.

ChatGPT ist ein Phänomen, das in die Technologiegeschichte eingehen wird. Keine andere neue Webanwendung hat jemals einen solchen Ansturm erlebt.28

Seit Februar 2023 ist das Sprachmodell GPT auch in die Suchmaschine Bing des OpenAI-Hauptinvestors Microsoft integriert, die (anders als das ChatGPT im Standardmodus) auf aktuelle Internetdaten zugreifen kann. Die KI-Funktion heißt mittlerweile Copilot. Die Funktionsweise ist jedoch identisch wie bei ChatGPT: Alles, was die Nutzer*innen machen müssen, ist, einen Prompt mit einer Aufgabe oder Frage zu verfassen, die das System dann in Form eines Textes ausführt bzw. beantwortet.

• Schreibe ein Gedicht über meinen Bademantel im Stil von Joachim Ringelnatz!

• Fasse den ersten Akt von „Iphigenie auf Tauris“ zusammen!

• Welche Argumente sprechen für oder gegen die Regulierung von KI-Algorithmen?

ChatGPT gehorcht – und antwortet wahlweise in verspielten ringelnatz’schen Reimen, in geschliffenem Lexikondeutsch (oder knapp 100 anderen Sprachen) oder einer übersichtlich gegliederten Pro- und Contra-Liste. Der Chatbot ist kontextsensitiv, erlaubt also Nachfragen oder Aufforderungen zu Korrekturen oder Konkretisierungen, ohne dass die ursprüngliche Aufgabe immer wieder neu beschrieben werden muss. Das enorme Sprachverständnis ermöglicht die Zusammenfassung und Vereinfachung komplexer Texte, Gesetze oder Studien. Selbst die Abschlussprüfungen an Hochschulen sind für ChatGPT und Bing/Copilot kein Problem, wie diverse Tests zeigen. Die schriftlichen Prüfungen in Medizin, MBA, Buchhaltung, Jura und Quantencomputing meisterten die Systeme locker.29 Von der Bedrängnis, in die Schulen und Hochschulen durch KI-generierte Hausaufgaben und Seminararbeiten geraten, wird an anderer Stelle die Rede sein. Eine weitere Schattenseite der automatisierten Textproduktion hatte sich bereits in den ersten Tests mit GPT-3 angedeutet. OpenAI hatte das Vorgängermodell GPT-2 Anfang 2019 noch wegen Bedenken hinsichtlich bösartiger Anwendungen der Technologie wie irreführender Nachrichtenartikel, automatisierter Fake-Inhalte in Social Media und automatisierter Spam-/Phishing-Inhalte zurückgehalten.30 Schließlich gab das Unternehmen das GPT-2 im November 2019 aber doch frei. Offiziell hieß es, man habe bislang keinen stichhaltigen Beweis für Missbrauch gefunden.31 Es ist jedoch nicht unwahrscheinlich, dass der Sinneswandel auch mit dem Wechsel in der Geschäftsführung zusammenhängt. Co-Gründer Sam Altman hatte in der Zwischenzeit das Ruder des bis dato nichtkommerziell arbeitenden Unternehmens übernommen und einen streng kommerziellen Kurs eingeschlagen. Die Bedenken hinsichtlich der negativen Auswirkungen der GPT-Nutzung blieben im Hause OpenAI aber offenbar bestehen. Die Autor*innen des Forschungspapiers zu GPT-3 führten erneut Beispiele für missbräuchliche Anwendungen an, unter anderem den Missbrauch rechtlicher und behördlicher Verfahren oder betrügerisches Schreiben von akademischen Aufsätzen. Die Forscher*innen hinterfragten auch die Qualität des Trainingsdatensatzes. Sie seien sich bewusst, dass mit Daten aus dem Internet trainierte KI-Modelle auch die im Internet abgebildeten Stereotypen und Vorurteile widerspiegeln, beispielsweise in Bezug auf Geschlecht, Hautfarbe und Religion.32 Die beschriebenen schädlichen Auswirkungen wurden im Forschungspapier erwähnt, um Bemühungen anzuregen, diese zu erforschen und abzumildern. Doch ohne auf die Forschungsergebnisse zu warten, wurde GPT-3 im Mai 2020 veröffentlicht – und darauf wurden die Sorgen der Entwickler*innen Realität: KI-Fake News gelangten ins Netz.

Der US-amerikanische Student Liam Porr, der sich über einen Kommilitonen Zugang zu dem Sprachmodell verschafft hatte, ließ GPT-3 sogar einen ganzen Blog schreiben. Porr gab dem Textmodell dabei die Überschrift vor, meist ein Thema aus dem Bereich Stressbewältigung und Psychohygiene, und GPT-3 schrieb passend dazu einen Text, der von menschlichen Artikeln aus dem Genre nicht zu unterscheiden war. Der Blog wurde innerhalb weniger Tage erfolgreich, ohne dass der Coup aufflog. Der Artikel Feeling unproductive? Maybe you should stop overthinking schaffte es sogar auf die Spitzenposition der meistgelesenen Posts auf der Social-News-Webseite hackernews.com!33 Zwei Wochen später löste Liam Porr den Fake schließlich auf. Titel des kryptischen, aber offenbar von ihm verfassten Posts: Was ich mit GPT-3 machen würde, wenn ich keine Ethik hätte.

Es mag der Pandemie geschuldet sein, dass GPT-3 im weiteren Verlauf des Jahres 2020 bis zum Herbst 2022 keine großen medialen Wellen geschlagen hat. (Was nicht heißt, dass in dieser Zeit keine GPT-generierten Texte zu moralisch ehrenwerten wie zu verwerflichen Zwecken produziert worden wären und ihren Weg ins Netz gefunden hätten – sie sind ja nicht erkennbar!) Umso höher schlugen die Wellen, als Ende November 2022 ChatGPT für die Öffentlichkeit freigegeben wurde. Das GPT-3-Modell konnte damit nicht mehr nur per Kommandozeile im Terminal-Fenster bedient werden, sondern als komfortabler Chatbot auf einer für jeden Menschen nutzbaren Webseite. Zwischen dem 15. Dezember 2022 und dem 14. Juli 2023 sieht das Analyseportal Exploding Topics für die Googlesuche ChatGPT einen Zuwachs von sagenhaften 8200 Prozent. Auf dem vorläufigen Höhepunkt des Trends im April 2023 wurde der Begriff 200 Mio. Mal in die Suchmaschine eingetippt!34

Auch die redaktionellen Medien kamen kaum um ChatGPT herum, was sicher auch daran lag, dass es fast täglich etwas Neues zu berichten gab. Die kuriosen Ausfälle der Anfangszeit, vor allem bei Bing – Bing hat sich in den User verliebt! Bing hat einen User mit Hitler verglichen! Bing hat einem User mit einem Hackerangriff gedroht!35 – wurden schnell behoben. Die mangelnde Faktentreue der Chatbots blieb jedoch und ist bis heute eines der größten ungelösten Probleme der Textgeneratoren. Bis zum heutigen Tage wird das täglich in den sozialen wie journalistischen Medien mit Beispielen belegt. Gerade angesichts der rhetorischen Qualität, mit der das Programm Unwahrheiten verkündet oder logische Fehlschlüsse verbreitet, können die Folgen sogenannter Halluzinationen gravierend sein. Das ist auch den OpenAI und seinen Mitbewerbern bewusst. GPT-4, das am 14. März 2023 veröffentlicht wurde und seitdem im kostenpflichtigen Abo von ChatGPT sowie in diversen anderen Anwendungen zum Einsatz kommt, erreicht im OpenAI-eigenen Sachlichkeitstest 40 Prozentpunkte mehr als sein Vorgänger. Dennoch verzapft es bisweilen einen solchen Unsinn, dass der Hinweis Erwägen Sie, wichtige Informationen zu überprüfen auf der Startseite des Chatbots durchaus berechtigt ist.

GPT-4 ist ca. 40 Mal größer als GPT-3, kann dank eines größeren Kontextfensters Zusammenhänge in Texten besser erfassen und komplexere Ausgaben generieren. Dass GPT-4 trotzdem nur auf einen Sachlichkeitswert von 0.8 kommt – ein Wert von 1 würde absolute Sachlichkeit bedeuten – bezeichnet OpenAI selbst als ein echtes Problem (a real issue).36 An der Veröffentlichung hinderte das echte Problem das Unternehmen aber offenkundig nicht. Zum Termin der Drucklegung dieses Buches ist GPT-4 (in der Version Turbo37) das leistungsfähigste und größte Sprachmodell – trotz seines bedenklichen Verhältnisses zur Wahrheit. In Teil II kommen wir darauf zurück.

Prompt: Bleistift-Skizze mit abstrakten Formen zum Thema: Künstliche Intelligenz und ihr schwieriges Verhältnis zur Realität. Graustufen, feine Linien, Schraffuren, abstrakt, heller Hintergrund (DALL-E 3/Firefly)

Doch auch die*der Nutzer*innen können das System zu Falschaussagen anregen. Was Liam Porr 2020 mit Feelgood-Themen geschafft hat, klappt 2023 (immer noch) auch mit Falschmeldungen jeder Couleur.

Der Medien-Dienstleister Newsguard zählt und beobachtet Webseiten, die augenscheinlich KI-generierte Nachrichten verbreiten. Bis Februar 2024 hat Newsguard 687 Seiten in 15 Sprachen ausgemacht, die den Anschein seriöser Nachrichtenwebseiten erwecken, aber zum Großteil aus KI-Texten bestehen. Das Newsguard AI Tracking Center erklärt:

Diese Websites haben in der Regel generische Namen wie iBusiness Day, Ireland Top News und Daily Time Update, die für den Verbraucher wie etablierte Nachrichtenseiten aussehen. […] Die Artikel enthielten mitunter falsche Behauptungen, z. B. über den Tod von Prominenten, erfundene Ereignisse und Artikel, in denen alte Ereignisse so dargestellt wurden, als hätten sie gerade erst stattgefunden.38