21,99 €
Machen Sie sich fit für die Zukunft des Marketing!
Mit der Einführung von künstlicher Intelligenz vollzieht sich in der Marketingbranche gerade eine Revolution. KI-Tools sind in der Lage Texte, Bilder, Audio, Video, Websites und mehr zu erstellen. Damit verändern sich alle bisherigen Arbeitsabläufe grundlegend. Der führende Marketingexperte Shiv Singh schildert in diesem Buch, wie und wo KI das Marketing umkrempelt, und zeigt auf, wo darin die Chancen liegen. Ausführliche Use Cases veranschaulichen, wie KI in den Marketingkampagnen großer Unternehmen bereits eingesetzt wird. Damit erhalten Sie wichtige Anregungen, wie Sie die Umstellung auf KI in Ihrem Unternehmen erfolgreich meistern.
Sie erfahren
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 598
Veröffentlichungsjahr: 2025
KI im Marketing für Dummies
Ohne klare Ziele lassen sich Teams möglicherweise von der Technologie faszinieren und zu Anwendungen verleiten, die für Ihr Unternehmen nicht die besten Ergebnisse bringen.
Wählen Sie die richtigen KI-Tools und -Techniken aus. Planen Sie, Ihre Marketingergebnisse anhand Ihrer Ziele zu messen.Wenn das Ziel eines Unternehmens beispielsweise darin besteht, die Kundenbindung zu erhöhen, kann es Metriken zur Nutzerbindung (zum Beispiel wie viel Zeit ein Nutzer auf einer Website verbringt), Klickraten oder Konversionsraten verfolgen. Damit lässt sich feststellen, ob die KI-gestützten Marketingkampagnen effektiv sind.
Investieren Sie in hochwertige Daten, um Ihre KI-Tools zu trainieren.Die Daten, die Ihr Unternehmen sammelt, um die KI-Engines für das Marketing zu trainieren, sind wesentlich. Denn sie helfen der KI, Ihren Teams verschiedene Insights und Empfehlungen zu geben, zum Beispiel wo und wie geworben werden soll.
Entwickeln Sie eine explizite Datenstrategie, die das Sammeln von Daten aus verschiedenen internen und externen Quellen umfasst – Daten aus erster, zweiter und dritter Hand. Führen Sie alle Daten in einem einzigen Data Lake zusammen (einem Ort, in dem große Mengen an Unternehmensdaten gespeichert, verarbeitet und gesichert werden). Sobald diese Daten vorhanden sind, können Sie die KI-Engines auf Ihren Data Lake verweisen und mit dem Training von KI-Modellen beginnen.
Priorisieren Sie den Datenschutz und die Vertraulichkeit Ihrer Kundendaten.Sie haben die wesentliche Aufgabe, die Privatsphäre Ihrer Kunden zu respektieren. Um diesen Schutz zu gewährleisten, müssen Ihre Marketingteams und Sie selbst einen sehr hohen Standard an Transparenz in Bezug auf Ihre Datennutzung einhalten.
Sie müssen gegenüber Ihren Kunden klar kommunizieren, wie Sie ihre Daten erfassen, verwenden und schützen, einschließlich der Frage, wie Sie ihre Informationen mit anderen Datenquellen verknüpfen. Und Sie müssen Datenschutzbestimmungen wie die Datenschutz-Grundverordnung (DSGVO) einhalten.
Eine solche KI-Schulung ist eine fortlaufende Reise, kein einmaliges Ereignis. Fördern Sie kontinuierliches Lernen und halten Sie sich mithilfe von Quellen wie dem Google AI Blog oder dem OpenAI Blog über die neuesten KI-Fortschritte auf dem Laufenden.
Bei der Auswahl der richtigen Partner und der geeigneten Tools für die Integration von KI in Ihr Marketing sollten Sie einige wichtige Faktoren beachten. Suchen Sie nach Lösungen, die skalierbar (sodass sie mit Ihrem Unternehmen wachsen können) und einfach zu bedienen sind und umfassenden Support bieten. Hier einige Optionen:
watsonx.ai von IBM: Zeichnet sich durch seine vielseitigen KI-Services aus, die für verschiedene Geschäftsanforderungen geeignet sind – von der Verbesserung der Kundenbindung bis hin zur Schulung, Validierung, Feinabstimmung und Bereitstellung von KI-Modellen.Google Cloud AI: Bietet erstklassige Lösungen für maschinelles Lernen (ML), die skalierbar sind und sich reibungslos in andere Google-Dienste integrieren lassen.Salesforce Einstein: Unterstützt Sie mit KI-Tools für das Marketing, einschließlich KI-gestützter Lösungen für das Kundenbeziehungsmanagement (CRM), die mit prädiktiven Analysen und automatisiertem Aufgabenmanagement ausgestattet sind.Kleinere Unternehmen: C3.ai, Dante und Instalily können Ihnen helfen, Wissensdatenbanken, autonome Agenten und Chatbots relativ einfach zu erstellen.
KI im Marketing für Dummies
Bibliografische Information der Deutschen Nationalbibliothek
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
© 2025 Wiley-VCH GmbH, Boschstraße 12, 69469 Weinheim, Germany
Original English language edition Marketing with AI for dummies © 2024 by Wiley Publishing, Inc.
All rights reserved including the right of reproduction in whole or in part in any form. This translation published by arrangement with John Wiley and Sons, Inc.
Copyright der englischsprachigen Originalausgabe Marketing with AI for dummies © 2024 by Wiley Publishing, Inc.
Alle Rechte vorbehalten inklusive des Rechtes auf Reproduktion im Ganzen oder in Teilen und in jeglicher Form. Diese Übersetzung wird mit Genehmigung von John Wiley and Sons, Inc. publiziert.
Wiley, the Wiley logo, Für Dummies, the Dummies Man logo, and related trademarks and trade dress are trademarks or registered trademarks of John Wiley & Sons, Inc. and/or its affiliates, in the United States and other countries. Used by permission.
Wiley, die Bezeichnung »Für Dummies«, das Dummies-Mann-Logo und darauf bezogene Gestaltungen sind Marken oder eingetragene Marken von John Wiley & Sons, Inc., USA, Deutschland und in anderen Ländern.
Alle Rechte bezüglich Text und Data Mining sowie Training von künstlicher Intelligenz oder ähnlichen Technologien bleiben vorbehalten. Kein Teil dieses Buches darf ohne die schriftliche Genehmigung des Verlages in irgendeiner Form – durch Photokopie, Mikroverfilmung oder irgendein anderes Verfahren – in eine von Maschinen, insbesondere von Datenverarbeitungsmaschinen, verwendbare Sprache übertragen oder übersetzt werden.
Das vorliegende Werk wurde sorgfältig erarbeitet. Dennoch übernehmen Autoren und Verlag für die Richtigkeit von Angaben, Hinweisen und Ratschlägen sowie eventuelle Druckfehler keine Haftung.
Dieses Buch wurde mit Unterstützung maschineller Übersetzungssoftware übersetzt.
Coverillustration: © AREE – stock.adobe.comKorrektur: Frauke Wilkens, München
Print ISBN: 978-3-527-72261-7ePub ISBN: 978-3-527-85017-4
Shiv Singh hat in über 25 Jahren Erfahrung in Marketing und Wirtschaft gesammelt und war maßgeblich am Erfolg großer Marken durch innovative Marketingstrategien, Kundenbindungsmechanismen und datengesteuerte Ergebnisse beteiligt. Als Chief Marketing & Customer Experience Officer bei LendingTree leitete er ein Team von 150 Fachleuten, die ein beträchtliches Werbebudget verwalteten und über 100 Millionen Verbraucher erreichten. Er hatte verschiedene Führungspositionen im Marketing bei Unternehmen wie der Expedia Group, Visa Inc. und PepsiCo inne, was ihm neben anderen Auszeichnungen die Anerkennung als Top-CMO von Business Insider und Forbes einbrachte. 2016 wurde er in die Hall of Achievement der American Advertising Federation aufgenommen. Außerdem engagiert er sich als Vorstandsmitglied von United Rentals und als Board Leadership Fellow der National Association of Corporate Directors (NACD). Er ist Berater für Fortune-1000-Unternehmen und Start-up-Investor.
Cover
Titelblatt
Impressum
Über den Autor
Inhaltsverzeichnis
Einführung
Über dieses Buch
Konventionen in diesem Buch
Wie dieses Buch aufgebaut ist
Törichte Annahmen über den Leser
Symbole, die in diesem Buch verwendet werden
Wie geht es weitergeht
Teil I: Erste Schritte mit KI im Marketing
Kapitel 1: Eine kurze Geschichte der KI
Frühe technologische Fortschritte
Alan Turing und die maschinelle Intelligenz
Die Dartmouth-Konferenz von 1956
Maschinelles Lernen und Expertensysteme entstehen
Ein KI-Winter bricht an
Der Stanford Cart: Von den 60ern bis in die 80er-Jahre
Weitere KI-Entwicklungen in den 1980er-Jahren
Schnelle Fortschritte der KI in den 1980er-Jahren und darüber hinaus
Kapitel 2: Anwendungsfälle für KI in Unternehmen
Automatisieren des Kundenservice
Produkt und Technologie mit KI verbessern
Beschleunigen von Forschung und Entwicklung
Dem Marketing einen KI-Schub geben
Mit KI den Vertrieb optimieren
Einbeziehen von KI in juristische Aktivitäten
Kapitel 3: Start in die Ära des KI-Marketings
Bereit oder nicht: KI ist Ihr neuer Marketing-Copilot
KI stellt die Unternehmenswelt auf den Kopf
Grundlegende Schritte in Richtung KI-Marketing
Einführung eines Frameworks für den Eintritt in das KI-Zeitalter
Teil II: Grundlegende KI-Strukturen und -Konzepte
Kapitel 4: Sammeln, Organisieren und Transformieren von Daten
Definition von Daten im Kontext von KI
Methoden zur Datenerfassung für Marketing mit KI
Ihre Marketingdaten an die richtige Stelle bringen
Daten von manuellen und automatisierten Systemen verstehen
Aufbereitung der Daten zur Nutzung durch KI-Algorithmen und -Modelle
Kapitel 5: Verbindungen herstellen: Maschinelles Lernen und neuronale Netzwerke
Der Prozess des maschinellen Lernens
Neuronale Netze verstehen
Überwachtes und unüberwachtes Lernen
Reinforcement Learning
Sequenzen und Zeitreihen beherrschen
Entwicklung des Sehens und der Bildverarbeitung in der KI
Tools für maschinelles Lernen und neuronale Netze
Kapitel 6: Natürliche Sprachverarbeitung und Stimmungsanalyse
Die Entmystifizierung von NLP
NLP mit maschinellem Lernen verbessern
Untersuchung von Transformern und Aufmerksamkeitsmechanismen
Das Geheimnis der Sentimentanalyse
Herausforderungen für NLP und Sentimentanalyse
Best Practices für die Verwendung von NLP und Sentimentanalyse
Kapitel 7: Zusammenarbeit bei Prognosen, Verfahren, Systemen und Filtern
Predictive Analytics verstehen
KI-Verfahren in der Praxis
Lebenszyklus der KI-Systementwicklung
Filterung der KI verstehen
Kapitel 8: Sich mit generativer KI vertraut machen
So verändert generative KI die Spielregeln
GPT-Modelle verstehen
Erstellen neuer Texte, Bilder und Videos
Wichtige generative KI-Modelle für den Verbraucher
Die Herausforderungen bei der Verwendung generativer KI-Modelle
Teil III: Mit KI Kunden besser kennenlernen
Kapitel 9: Segmentierung und Persona-Entwicklung
Die Elemente der Verhaltenssegmentierung
Beschaffung der richtigen Kundendaten
So führt die KI eine Segmentierung durch
Segmentierungsmodelle verfeinern, validieren und verbessern
Ausrichtung der Persona-Entwicklung
Nutzung von KI-Personas für alle Geschäftsaktivitäten
Einsatz synthetischer Kundenpanels
Kapitel 10: Lead Scoring, Lifetime Value und dynamische Preisgestaltung
Drei Kernkonzepte für das Zusammenspiel
Leads mithilfe von KI erzielen
Lifetime Value für das Lead Scoring berechnen
Lead Scoring und LTV-Insights für dynamische Preisgestaltung nutzen
Kapitel 11: Churn-Modellierung und -Messung mit KI
Alles über Churn Modeling
Ihre Mess- und Analyseprozesse steigern
Test von Tools für Churn Modeling und Messvorgänge
Teil IV: Transformation von Markeninhalten und Kampagnenentwicklung
Kapitel 12: Ideenfindung und Planung mit KI
KI als Ideengeber für Menschen
Sind KI-Halluzinationen ein Feature oder ein Bug?
Praktische Schritte zur Ideenfindung mit KI
Auswahl der KI-Tools zur Ideenfindung
Kapitel 13: Die besten Prompts für Conversational User Interfaces
Anwendungsfälle für Conversational Interfaces überprüfen
Überzeugende Prompts für KI-Antworten schreiben
Beispiele für gute und schlechte Prompts im Marketing
Starke Prompts verfeinern
Die KI-Voreingenommenheit beim Prompting vermeiden
Apps zum Prompten verwenden
Kapitel 14: Entwicklung kreativer Assets
Test mit einer KI-generierten »Where is Waldo?«-Illustration
Visuelle Assets mit KI erstellen
Vorhandene kreative Assets verbessern
Feinabstimmung der Kreativität mit KI-Tools und -Techniken
KI-Tools zum Erstellen visueller Assets
Kapitel 15: Suchmaschinenoptimierung (SEO) im KI-Zeitalter
Search Generative Experiences (SGEs)
SEO-Erfolg im KI-Zeitalter
User Experience mit KI verbessern
Ihre SEO-Bemühungen maximieren
KI-Tools, die Sie bei SEO einsetzen können
Kapitel 16: A/B-Tests mit KI durchführen
Grundlagen des A/B-Testings
Überblick zu A/B-Testerweiterungen
Wichtige KI-Tools für A/B-Tests
Kapitel 17: Feintuning der Inhalte durch Lokalisierung und Übersetzung
KI zur Lokalisierung und Übersetzung
Zentrale Strategien zur Lokalisierung
Lokalisierungs- und Übersetzungslösungen in Echtzeit
Teil V: KI in Wachstumsmarketing und Kundenorientierung
Kapitel 18: KI im Performance-Marketing
Google Performance Max im Überblick
Meta-Advantage+-Kampagnen
Anzeigen auf Amazon im Check
Ein kurzer Blick auf TikTok-Werbung
KI-Tools für Performance-Marketing
Kapitel 19: KI im E-Mail- und SMS-Marketing
Tracking von E-Mail- und SMS-Marketing
Die Leistungsfähigkeit von KI im E-Mail- und SMS-Marketing nutzen
KI-gestützte E-Mail- und SMS-Tools
Kapitel 20: Deep Dive in personalisiertes Marketing
Marketing an die Personalisierungswünsche Ihrer Kunden anpassen
Personalisierungskonzepte prüfen
Die Vorteile der Personalisierung mit generativer KI nutzbar machen
Personalisierung mit KI umsetzen
KI-Tools zur Unterstützung der Personalisierung
Kapitel 21: Ihr Unternehmen ins KI-Zeitalter führen
KI in Ihr Unternehmen integrieren
Aufbau von KI-Fähigkeiten im Marketing
Das Marketing in das übrige Unternehmen integrieren
Fit für die Zukunft
Kapitel 22: Ethische, rechtliche und datenschutzbezogene Bedenken im Zusammenhang mit KI
Arbeitsgrundsätze für ethische KI
Verantwortungsvoller Umgang mit Daten
Bekämpfung von Data Bias
Schutz des Urheberrechts und des geistigen Eigentums
Dem Deepfake-Problem begegnen
Die Menschheit vor künstlicher Intelligenz retten
Teil VI: Der Top-Ten-Teil
Kapitel 23: Zehn Fallstricke, die Sie beim Einsatz von KI im Marketing vermeiden sollten
Qualitative Erkenntnisse ignorieren
Ausschließlich auf generierte Personas vertrauen
Bei Kreativbriefings nur auf KI setzen
Die menschliche Kreativität umgehen
Ihre Brand Voice verlieren
Neue Medienkanäle vernachlässigen
Auf kurzfristige Ziele überoptimieren
Kunden verschrecken
Den Wert der menschlichen Note ignorieren
ROI-Analyse ausschließlich durch KI durchführen lassen
Kapitel 24: Zehn KI-Trends, die Sie im Auge behalten sollten
Quantencomputergestützte KI
Autonome Kreativkampagnen
Kognitive KI-Systeme für Deep Insights
KI-gesteuerte Virtual-Reality-Erlebnisse
Neuronale Schnittstellen für Marketinginsights
KI-kuratierte persönliche Digital Realities
Synthetische Medien für dynamische Inhalte
Prädiktives World Modeling
KI als Simulator für Kundenverhalten
Produktanpassung auf molekularer Ebene
Stichwortverzeichnis
End User License Agreement
Kapitel 2
Tabelle 2.1: Einige KI-Kundenserviceangebote
Tabelle 2.2: Einige KI-Produkttechnologieangebote
Tabelle 2.3: Einige Forschungs- und Entwicklungsangebote im Bereich KI
Tabelle 2.4: Einige KI-Marketingangebote
Tabelle 2.5: Einige KI-Verkaufsangebote
Tabelle 2.6: Einige juristische Angebote zum Thema KI
Kapitel 4
Tabelle 4.1: Datenstrukturen und Handhabung
Kapitel 5
Tabelle 5.1: Besonderheiten von Zeitreihen in neuronalen Netzen
Kapitel 7
Tabelle 7.1: Entwickeln erfolgreicher Prognosemodelle
Kapitel 8
Tabelle 8.1: Konzepte und Strukturen der generativen KI
Tabelle 8.2: Wichtige generative KI-Modelle
Kapitel 9
Tabelle 9.1: Daten zur Verhaltenssegmentierung
Kapitel 10
Tabelle 10.1: Unternehmen, die KI in Lead-Scoring-Lösungen anbieten
Tabelle 10.2: Unternehmen mit KI-basierten LTV-Lösungen
Tabelle 10.3: Unternehmen mit KI in dynamischen Preislösungen
Kapitel 11
Tabelle 11.1: KI-Tools zur Modellierung und Messung der Kundenabwanderung
Kapitel 12
Tabelle 12.1: KI-Tools zur Ideenfindung
Kapitel 13
Tabelle 13.1: Sprach- und Tonarten beim Schreiben eines KI-Prompts
Tabelle 13.2: Elemente eines guten Prompt-Designs
Tabelle 13.3: Schlechte Designs für Marketing-Prompts
Tabelle 13.4: Prompts verfeinern
Kapitel 14
Tabelle 14.1: KI-generierte visuelle Asset-Tools
Kapitel 15
Tabelle 15.1: KI-Tools, die bei der Suchmaschinenoptimierung helfen
Kapitel 16
Tabelle 16.1: KI-Tools für A/B-Tests
Kapitel 17
Tabelle 17.1: LLMs für Lokalisierung und Übersetzung
Tabelle 17.2: Verbraucher-KI-Tools für die Übersetzung
Tabelle 17.3: Enterprise-KI-Tools für die Übersetzung
Kapitel 18
Tabelle 18.1: Targeting-Optionen von Amazon Ads
Tabelle 18.2: Targeting-Optionen von TikTok
Tabelle 18.3: Marketingplattformen, die KI nutzen
Kapitel 19
Tabelle 19.1: KI-Tools für E-Mail- und SMS-Marketing
Kapitel 20
Tabelle 20.1: Tools, die KI zur Personalisierung nutzen
Kapitel 24
Tabelle 24.1: Verbraucherinteraktionen
Cover
Titelblatt
Impressum
Über den Autor
Einführung
Inhaltsverzeichnis
Fangen Sie an zu lesen
Stichwortverzeichnis
End User License Agreement
1
2
5
6
7
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
Technologie kann unseren Alltag vollständig verändern. Viele Menschen können sich an ein Leben ohne E-Mail, World Wide Web, Mobiltelefon und Videostreaming nicht erinnern. Arbeitsabläufe sind heute von Laptops, drahtlosem Internetzugang und Suchmaschinen geprägt. Die Veränderungen durch KI gehören ebenfalls zu diesen großen technologischen Umwälzungen. Allerdings werden sie wohl noch mehr ändern als alle anderen Innovationen zuvor.
Mit der Einführung von ChatGPT 3.0 im November 2022 rückte KI bei der alltäglichen Technologienutzung in den Vordergrund. ChatGPT wurde schnell zu einer der am schnellsten wachsenden App der Geschichte und markierte einen entscheidenden Wandel in der Nutzung von KI im Alltag.
Jeder Bereich, jede Aufgabe im Marketing – Jahresplanung, Strategie, Forschung, Kampagnenentwicklung, Anzeigenproduktion, Medienplanung, Analytik, CRM – steht mit dem Aufkommen der KI vor einer Transformation. Marketingfachleute werden jede Aktivität mithilfe von KI steuern, was zu einem kreativeren, personalisierteren und wirkungsvolleren Marketing als je zuvor führen wird.
Die Diskussion über technologische Veränderungen erscheint oft abstrakt. In diesem Buch erfahren Sie, wie die Auswirkungen der KI auf das tägliche Leben spürbar werden und was das für Ihre Arbeit im Marketing bedeutet.
KI im Marketing für Dummies zerlegt diese Auswirkungen in leicht konsumierbare Kapitel und macht das Thema somit für jeden Marketer zugänglich. Es bietet Definitionen, beschreibt Rahmenbedingungen, nennt Konzepte, schildert Fallstudien und praktische Anleitungen, damit Sie das enorme Potenzial von KI in Ihrem Unternehmen in konkrete Strategien umsetzen können.
Obwohl sich die Welt der KI schnell verändert, vollzieht sich die Einbindung in das Marketing-Ökosystem relativ langsam. Deshalb sind die Kernkonzepte, Strategien, Rahmenbedingungen und praktischen Anleitungen zeitloser, als Sie vielleicht denken.
Hier sind einige Regeln für die Lektüre des Buches und Hinweise darauf, was sie bedeuten:
Kursiv
gedruckte Wörter oder Ausdrücke markieren Begriffe, die ich im umgebenden Text für Sie erkläre.
Webadressen werden in
Monofont
angezeigt. Wenn Sie dieses Buch als E-Book lesen und Zugang zum Internet haben, können Sie auf die Webadresse klicken, um die entsprechende Website zu besuchen, zum Beispiel hier:
www.wiley-vch.de/de/dummies
.
Der fett und kursiv gedruckte Begriff
Best Practice im Marketing
zeigt, was ich für die besten Marketingpraktiken halte.
Um den Inhalt von KI im Marketing für Dummies zugänglicher zu machen, habe ich ihn in sechs Teile unterteilt:
Dieser Teil beschreibt die historischen und kontextuellen Grundlagen für KI. Außerdem wird die Entwicklung der KI von ihren mythologischen Wurzeln bis hin zu modernen Anwendungen nachgezeichnet, wobei wichtige Meilensteine wie die Entwicklung des Turing-Tests, des maschinellen Lernens und der generativen KI behandelt werden.
In diesem Teil schildere ich einige der besten Anwendungsfälle für KI im Marketing, bewerte verschiedene Tools und stelle einige der Risiken vor, denen Sie bei der Integration von KI in Ihren Arbeitsablauf ausgesetzt sein können.
In diesem Teil geht es um die Fähigkeit von KI, Kunden personalisierte Erfahrungen zu bieten, Inhalte und Werbung auf einzelne Verbraucher zuzuschneiden und damit die Kundenbindung zu verbessern. Sie können sich über KI-gesteuerte Technologien wie Chatbots informieren und erfahren, wie diese zu einer höheren Kundenzufriedenheit beitragen können.
Dieser Teil untersucht die Rolle der KI bei der Generierung kreativer Inhalte. Es wird erläutert, wie Sie die KI-Tools dazu bringen können, Inhalte effektiv zu erstellen. Es wird ermittelt, welche Tools Ihnen dabei helfen können, qualitativ hochwertige Inhalte effizient und in großem Umfang zu erstellen. Sie erfahren mehr über die Auswirkungen der KI auf die Werbung, einschließlich der Durchführung effektiver A/B-Tests mit den KI-Technologien, der Entwicklung von SEO-Programmen und der Regionalisierung von Inhalten mithilfe der KI.
Dieser Teil befasst sich mit der Integration von KI in das Wachstumsmarketing und konzentriert sich auf die Optimierung von Kampagnen, die Verbesserung des Kundenerlebnisses und die Steigerung der Betriebseffizienz. Er betont auch die Bedeutung ethischer Richtlinien, verantwortungsvoller Nutzung und strategischer Integration in den Geschäftsbetrieb. Darüber hinaus befasst sich der Teil mit ethischen, rechtlichen und datenschutzrechtlichen Bedenken und bietet Grundsätze für einen verantwortungsvollen Einsatz von KI im Marketing.
In diesem Teil finden Sie eine Liste mit zehn Fallstricken, die Sie im KI-Marketing meiden sollten, und eine weitere Liste mit zehn Entwicklungen, die meiner Meinung nach auf die Marketingwelt zukommen, wenn KI immer häufiger eingesetzt wird.
Egal ob Sie Marketingleiter bei einem Fortune-500-Unternehmen sind, ein Junior-Marketingmitarbeiter in einem kleinen Unternehmen, ein leitender Angestellter in einer Agentur, der mit Marketingmitarbeitern zusammenarbeitet, oder ob Sie in Ihrem Unternehmen mehrere Rollen (einschließlich des Marketingjobs) innehaben, dieses Buch ist für Sie. Die einzigen wirklichen Annahmen, die ich über Sie mache, sind, dass Sie sich für KI interessieren und dass Sie wissen wollen, wie sie im Marketing eingesetzt werden kann und welche Best Practices dafür gelten.
In diesem Buch werden durch Symbole am Rand wertvolle Informationen hervorgehoben, die Ihre Aufmerksamkeit erfordern. Hier eine kurze Beschreibung der Symbole, die Ihnen möglicherweise begegnen.
Dieses Symbol kennzeichnet Tipps und Abkürzungen, die Sie nutzen können, um die Arbeit mit KI in Ihren Marketingbemühungen zu erleichtern.
Dieses Symbol kennzeichnet Informationen, die besonders wichtig sind. Um die wichtigsten Informationen aus jedem Kapitel herauszufiltern, halten Sie einfach nach diesen Symbolen Ausschau.
Dieses Symbol kennzeichnet Informationen hochtechnischer Natur, die Sie normalerweise überspringen können, es sei denn, Sie möchten einige nicht unbedingt erforderliche Informationen zum Thema erhalten.
Dieses Symbol warnt Sie vor möglichen Problemen! Es kennzeichnet wichtige Informationen, die Ihnen möglicherweise Kopfschmerzen ersparen. Dazu gehören beispielsweise ethische Fehltritte, die Sie vermeiden sollten, oder häufige Fehler bei der Ausführung, die Sie vermeiden können.
Die Kapitel in diesem Buch behandeln alle wichtigen Aspekte von KI im Marketing. Jeder Teil baut auf dem vorherigen auf und bietet einen umfassenden Leitfaden für die Navigation durch die KI-gesteuerte Transformation der Marketinglandschaft. Sie müssen das Buch jedoch nicht von Anfang bis Ende lesen. Sie können in ein Kapitel eintauchen, das verschiedene KI-bezogene Fragen behandelt, die Sie bei Ihren Marketingmaßnahmen möglicherweise gerade betreffen. Sehen Sie sich das Inhaltsverzeichnis an, um die für Sie wichtigsten Themen zu identifizieren. Und dann tauchen Sie ein!
Teil I
IN DIESEM TEIL …
verfolgen Sie die Entwicklung der KI vom Mythos zum modernen Geschäftstool.entdecken Sie, wie Unternehmen KI im Marketing, Kundenservice, der Rechtsabteilung und anderen Bereichen einsetzen.entwickeln Sie Frameworks für die Integration von KI in Ihre Marketingmaßnahmen.Kapitel 1
IN DIESEM KAPITEL
Auf den historischen Spuren der KIWie Maschinen Menschen austricksenBereiche, in denen KI unseren Alltag bereits erobert hatUm die Rolle der künstlichen Intelligenz (KI) in Wirtschaft und Gesellschaft vollständig zu verstehen, müssen wir erst einmal ihre faszinierende Geschichte nachvollziehen. Denn diese Spurensuche wirft nicht nur ein Licht auf die enormen Fortschritte der KI, sie verdeutlicht auch ihren Nutzen für das Marketing.
Die ersten Vorstellungen von künstlicher Intelligenz gehen auf die griechische Mythologie zurück, in der Talos, ein 2,44 Meter großer Riese aus Bronze, die Insel Kreta bewachte, um sie vor Piraten und anderen Eindringlingen zu schützen. Talos warf Felsbrocken auf Schiffe und patrouillierte jeden Tag auf der Insel. Der Legende nach wurde er schließlich besiegt, als ein Bronzenagel aus der Ferse seines Fußes entfernt wurde, sodass das Ichor (Blut der Götter) aus seinem Körper fließen konnte.
Von diesem Zeitpunkt an rankten sich zahlreiche Geschichten um automatisierte Wesen in der griechischen Mythologie, was die Fantasie von Wissenschaftlern, Mathematikern und Erfindern anregte. Die moderne Wissenschaft hat inzwischen einige dieser Mythen tatsächlich verwirklichen können. In diesem Kapitel stelle ich Ihnen diese Fortschritte vor, darunter den Turing-Test, maschinelles Lernen, Expertensysteme und generative KI.
Wissenschaftler führen die Anfänge der Automatisierung auf das 17. Jahrhundert und die Erfindung der Pascaline zurück, einer mechanischen Rechenmaschine. Dieses Gerät, das der französische Erfinder Blaise Pascal zwischen 1642 und 1644 konstruierte, verfügte über einen kontrollierten Übertragsmechanismus. Dieser erleichterte Rechenoperationen mit Addition und Subtraktion, indem er die Ziffer »1« effektiv in die nächste Spalte übertrug. Die Rechenmaschine arbeitete vor allem bei der Verarbeitung großer Zahlen effizient. Der deutsche Mathematiker Wilhelm Leibniz baute auf dieser Idee auf und erfand 1694 eine neue Rechenmaschine. Diese erweiterte das Konzept der Pascaline, indem sie alle vier Grundrechenoperationen ermöglichte – Addition, Subtraktion, Multiplikation und Division (nicht nur Addition und Subtraktion). Damit boten diese Geräte erstmals einen Einblick in das Potenzial des mechanischen Denkens.
Wenn wir ins frühe 19. Jahrhundert vorspulen, stoßen wir auf das Jacquard-System, das von dem Franzosen Joseph-Marie Jacquard entwickelt wurde. Dabei wurden austauschbare Lochkarten verwendet, um das Weben von Stoffen und das Entwerfen komplizierter Muster zu bestimmen. Diese Lochkarten waren der Grundstein für spätere Entwicklungen in der Computertechnik. Mitte des 19. Jahrhunderts stellte der britische Erfinder Charles Babbage das erste Rechengerät vor, die sogenannte Analytical Engine. Mithilfe von Lochkarten konnte diese Maschine eine Vielzahl von Berechnungen mit mehreren Variablen durchführen. Sie verfügte zudem über eine Reset-Funktion, wenn sie ihre Aufgabe erledigt hatte. Wichtig war auch, dass sie einen temporären Datenspeicher für komplexere Berechnungen hatte – eine entscheidende Funktion für jedes spätere System künstlicher Intelligenz (KI).
Ende der 1880er-Jahre erreichte die Entwicklung der KI mit der Entwicklung der Tabelliermaschine einen weiteren Meilenstein. Diese war vom amerikanischen Erfinder Herman Hollerith speziell zur Verarbeitung der Daten für die US-Volkszählung von 1890 konstruiert worden. Das elektromechanische Gerät verwendete Lochkarten zur Speicherung und Aggregation von Daten und verbesserte die Speicherkapazität der analytischen Maschine durch die Integration eines Akkumulators. Bemerkenswerterweise blieben modifizierte Versionen der Tabelliermaschine bis in die 1980er-Jahre betriebsbereit.
Viele Menschen betrachten Alan Turing, einen britischen Mathematiker, Logiker und Informatiker, als den Gründervater der theoretischen Informatik. Er ebnete den Weg für weitere Durchbrüche in der KI. Während des Zweiten Weltkriegs diente er in Bletchley Park, der Codeknacker-Einrichtung des Vereinigten Königreichs. Er spielte eine entscheidende Rolle bei der Decodierung von Nachrichten, die von der deutschen Enigma-Maschine, einem Gerät zur Codegenerierung, verschlüsselt wurden. Wissenschaftler und Historiker schreiben seiner Arbeit zu, dass sie den Krieg verkürzte und Millionen von Menschenleben rettete.
Turings wichtigste Innovation in Bletchley war die Entwicklung der Bombe, einer Maschine, die den Prozess zur Entschlüsselung von Nachrichten der Enigma-Maschine erheblich beschleunigte. Die Enigma verwendete eine Reihe rotierender Scheiben, um Klartextnachrichten in verschlüsselten Geheimtext umzuwandeln. Die Komplexität dieses Verschlüsselungsgeräts und der von ihm generierten verschlüsselten Nachrichten war auch darauf zurückzuführen, dass die Enigma-Benutzer die Einstellungen der Maschine täglich änderten. Für Großbritannien und alle Alliierten war es äußerst schwierig, den Code innerhalb des 24-Stunden-Fensters zu knacken – bevor die Einstellungen erneut geändert wurden. Die Turing-Bombe automatisierte den Prozess zum Identifizieren der Enigma-Einstellungen und analysierte verschiedene mögliche Kombinationen viel schneller als ein Mensch es jemals geschafft hätte. Diese Automatisierung ermöglichte es den Briten, die geheime deutsche Kommunikation regelmäßig zu entschlüsseln.
Obwohl die Einzelheiten dieses Codeknacker-Geräts viele Jahre lang unter Verschluss blieben, ist die Bombe eines der ersten Beispiele dafür, dass Technologie den Menschen bei Aufgaben, die traditionell menschliche Intelligenz erforderten, übertraf und sie effizienter und präziser ausführte.
Kurz nach dem Zweiten Weltkrieg formulierte Turing in einem 1950 veröffentlichten Aufsatz mit dem Titel »Computing Machinery and Intelligence« die Idee, einen Standard zu definieren, ab dem man eine Maschine als intelligent bezeichnen könne. Er entwickelte das Experiment (heute Turing-Test genannt), das die Frage beantworten sollte: »Können Maschinen denken?« Die grundlegende Prämisse lautete dabei: Wenn ein Computer an einem Dialog mit einem Menschen teilnehmen kann und ein Beobachter nicht erkennen kann, welcher Teilnehmer Mensch und welcher ein Computer ist, dann kann man diesen Computer als intelligent bezeichnen.
Turings Test sah vor, dass ein menschlicher Prüfer Dialoge zwischen einem Menschen und einer Maschine beurteilen soll. Der Prüfer weiß zwar, dass einer der Teilnehmer eine Maschine ist, aber nicht, welcher. Um jegliche Verzerrung durch stimmliche Hinweise auszuschließen, schlug Turing vor, dass der Prüfer die Interaktionen auf ein reines Textmedium beschränkt. Wenn der Prüfer es schwierig fand, zwischen der Maschine und dem menschlichen Teilnehmer zu unterscheiden, bestand die Maschine den Test. Die Bewertung konzentrierte sich dabei nicht auf die Genauigkeit der Antworten der Maschine. Sondern darauf, wie wenig sich ihre Antworten von denen eines Menschen unterscheiden ließen.
1966, lange nach Alan Turings Tod, entwickelte der deutsch-amerikanische Wissenschaftler Joseph Weizenbaum ELIZA, das erste Programm, das den Turing-Test zu bestehen schien. Viele Quellen bezweifeln zwar, dass es den Turing-Test bestehen konnte. Aber es war technisch in der Lage, einige Menschen davon zu überzeugen, sie würden mit menschlichen Operatoren sprechen. Das Programm funktionierte, indem es die getippten Kommentare eines Nutzers auf Schlüsselwörter hin untersuchte und daraufhin eine Regel ausführte, die die Kommentare veränderte. Das führte dazu, dass das Programm mit einem neuen Satz antwortete. Tatsächlich spiegelte ELIZA, wie viele Programme seitdem, ein Verständnis der Welt vor, ohne tatsächlich über reales Wissen zu verfügen.
Der amerikanische Psychiater Kenneth Colby ging 1972 noch einen Schritt weiter und entwickelte PARRY, das er als ELIZA mit Haltung beschrieb. Erfahrene Psychiater testeten PARRY in den frühen 1970er-Jahren mit einer Variante des Turing-Tests. Sie analysierten Texte von echten Patienten und von Computern, auf denen PARRY lief. Die Psychiater identifizierten die Patienten nur in 52 Prozent der Fälle richtig, eine Statistik, die mit zufälligen Vermutungen übereinstimmt.
Bis heute ist der Turing-Test eine prägnante, leicht verständliche Methode, um zu beurteilen, ob eine Technologie intelligent ist oder nicht. Indem der Test auf textbasierte Interaktionen beschränkt wurde und die Abfragen in natürlicher Sprache (Konversationsenglisch) erfolgen, konnte jeder leicht nachvollziehen, was der Test leistete, als Turing ihn erstmals vorstellte. Und indem er die Genauigkeit der Antwort nicht in den Vordergrund rückte, konzentrierte er den Test auf die Bewertung dessen, was Menschen wirklich menschlich macht.
Seit Alan Turing den Turing-Test erstmals präsentierte, haben sich Computer sprunghaft weiterentwickelt. Betrachten wir einmal die fortlaufenden Entwicklung intelligenter Technologie:
Noch im Jahr 2021 hatten Chatbots, die in weiten Teilen der Welt verfügbar waren, Mühe, den Turing-Test durchgängig zu bestehen. Dienste wie Siri von Apple, Alexa von Amazon und Googles Assistant konnten zwar in natürlicher Sprache mit uns sprechen, zogen sich aber bei einigen der einfachsten Fragen schnell auf Allgemeinplätze zurück. So könnte beispielsweise die Aufforderung »Beschreiben Sie sich selbst nur mit Farben und Formen!« die Antwort »Okay, ich habe im Internet Folgendes zum Beschreiben von Farben und Formen gefunden …« hervorbringen.Seit 2023 können die wichtigsten Chat-Schnittstellen von OpenAI, Google und anderen den Turing-Test bestehen. Diese schnelle Veränderung zeigen, wie schnell die technologischen Fortschritte im Bereich der KI sind und dass sich innerhalb von nur 24 Monaten dramatisch viel verändern kann.Die Dartmouth-Konferenz von 1956 gilt in der akademischen Gemeinschaft oft als Geburtsstunde der künstlichen Intelligenz (KI) als eigenständiges Forschungsgebiet. Die Konferenz fand im Sommer des Jahres am Dartmouth College in Hanover, New Hampshire, statt. Für einen Zeitraum von sechs bis acht Wochen fanden sich dort Koryphäen aus verschiedenen Disziplinen – Informatik, kognitive Psychologie, Mathematik und Ingenieurwissenschaften – unter einem Dach zusammen. Die von den Informatikern John McCarthy, Marvin Minsky und Nathaniel Rochester sowie dem Mathematiker Claude Shannon organisierte Konferenz zielte darauf ab, »jeden Aspekt des Lernens oder jedes andere Merkmal der Intelligenz« zu untersuchen, wie es in einem Schreiben der Konferenz hieß.
Die Dartmouth-Konferenz von 1956 stellt aus mehreren Gründen eine Zäsur dar. Sie war mehr als nur ein Sommertreffen von Intellektuellen; sie war ein bahnbrechendes Ereignis, das die Entwicklung der KI, wie wir sie heute kennen, prägte. Sie prägte den Begriff »KI« und war gleichzeitig die erste Community, die Forschungsrichtungen und damit Innovationen in diesem Bereich über Jahrzehnte hinweg vorangetrieben hat.
Prägen des Begriffs »künstliche Intelligenz« (KI):
Die Konferenz verlieh einem Forschungsbereich einen Namen, der bis dahin vage definiert war und sich interdisziplinär über Mathematik, Informatik, Ingenieurwissenschaften und verwandte Bereiche erstreckte. John McCarthy, einem der Organisatoren, wird die Einführung des Begriffs zugeschrieben. Das trug dazu bei, die zukünftige Richtung der Forschung zu bestimmen, weil sich sämtliche Wissenschaftler um einen zentralen Forschungsgegenstand versammeln konnten.
Katalysator für zukünftige Forschung: Sie legte die Forschungsagenda für die kommenden Jahrzehnte fest. Während der Konferenz führten die Teilnehmer intensive Diskussionen, Brainstorming-Sitzungen und sogar Experimente im Frühstadium zu grundlegenden Themen im KI-Bereich durch. Die Teilnehmer wollten herausfinden, ob sie Maschinen so programmieren konnten, dass sie Aspekte der menschlichen Intelligenz simulierten.
Forschungsthemen waren beispielsweise:
Problemlösung
symbolisches Denken
neuronale Netze
Sprachverständnis
lernende Maschinen
Sie entwickelten Programme zum Schachspielen, zum Beweis mathematischer Theoreme und zur Generierung einfacher Sätze.
Bereitstellen einer kollaborativen Plattform für interdisziplinäre Forschung:
Forscher, deren Wege sich sonst vielleicht nie gekreuzt hätten, führten nun bedeutungsvolle Dialoge und knüpften Beziehungen, die in den kommenden Jahren und Jahrzehnten zu bedeutenden Kooperationen führen würden. Diese Interdisziplinarität war entscheidend, um ein komplexes Problem wie die Simulation menschlicher Intelligenz angehen zu können. Denn dies erforderte Kenntnisse aus verschiedensten Bereichen wie Psychologie, Neurowissenschaften, Linguistik, Operations Research und Wirtschaftswissenschaften.
Wichtige Finanzierung und Aufmerksamkeit für den sich entwickelnden Bereich der KI:
Die Sichtbarkeit und Glaubwürdigkeit, die diese Veranstaltung mit sich brachte, führten zu erhöhten Investitionen in die KI-Forschung sowohl aus dem staatlichen als auch aus dem privaten Sektor. Diese finanzielle Unterstützung war für die Entwicklung von Laboren, akademischen Programmen und Forschungsprojekten von entscheidender Bedeutung.
Nach der Dartmouth-Konferenz (siehe vorheriger Abschnitt) entstanden zwei wichtige Teilgebiete, die zu den Eckpfeilern der künstlichen Intelligenz wurden: maschinelles Lernen und Expertensysteme. Bei den Expertensystemen handelte es sich um regelbasierte Methoden, die auf vordefinierten, von Menschen erstellten Anweisungssätzen basierten. MaschinellesLernen (zunächst als selbstlernende Computer bezeichnet) stellte einen radikalen Wandel dar. Die Herangehensweise zielte darauf ab, Systeme zu entwickeln, die aus Daten lernten, anstatt vorgegebenen Regeln zu folgen.
Arthur Samuel, ein amerikanischer Pionier auf dem Gebiet der Computerspiele und der künstlichen Intelligenz, prägte 1959 offiziell den Begriff des maschinellen Lernens. Im Gegensatz zu traditionellen Computermethoden, die für jede Operation auf explizite Anweisungen angewiesen waren, konzentrierte sich das maschinelle Lernen auf die Entwicklung von Algorithmen, die in der Lage sind, aus vorhandenen Daten eigenständig Schlussfolgerungen abzuleiten. Diese Algorithmen verwenden statistische Techniken, um Muster zu erkennen, Entscheidungen zu treffen oder auf der Grundlage dieser Muster zukünftige Ergebnisse vorherzusagen.
In den 1960er-Jahren leistete die Raytheon Company einen bedeutenden Beitrag auf diesem Gebiet. Sie entwickelte ein frühes Lernmaschinensystem, das verschiedene Arten von Daten analysieren konnte, darunter Sonarsignale, Elektrokardiogramme und Sprachmuster. Die Maschine verwendete eine Form des bestärkenden Lernens, eine Untergruppe des maschinellen Lernens, bei der der Algorithmus weitere Aktionen durch Versuch und Irrtum ermittelt. Im Wesentlichen wurde das System für richtige Entscheidungen belohnt und für falsche bestraft. Menschen bedienten und optimierten das System, wobei sie einen Knopf drückten, um Fehler zu kennzeichnen und zu korrigieren. Diese Korrekturen ermöglichten es der Maschine, sich anzupassen und ihre Leistung im Laufe der Zeit zu verbessern.
Zu den wichtigsten herausragenden Merkmalen des maschinellen Lernens gehören:
Anpassungsfähigkeit: Anstatt sich darauf zu verlassen, dass Menschen Problemlösungen manuell codieren, können Computer durch maschinelles Lernen eigene Lösungen finden, indem sie große Datensätze untersuchen. Diese Freiheit hat zu bahnbrechenden Anwendungen in verschiedenen Bereichen geführt. So sind Algorithmen des maschinellen Lernens beispielsweise die Basis großer Sprachmodelle und Computervisionsysteme, die es Computern ermöglichen, Objekte und Personen in Bildern und Videos zu identifizieren und zu verstehen.
Solche Systeme können
menschenähnlichen Text generieren,
mit unglaublicher Genauigkeit Tausende von Objekten erkennen und Spam-E-Mails filtern,
menschliche Sprache in Echtzeit transkribieren und übersetzen.
Auf diese Themen gehe ich in den folgenden Kapiteln (beispielsweise in den Kapiteln 4 und 5) ausführlich ein.
Effiziente und skalierbare Lösungen: Da die Entwicklung spezifischer Algorithmen für jede Erkennungs-, Filter- oder Generierungsaufgabe sowohl kostspielig als auch zeitaufwendig wäre, bietet maschinelles Lernen eine weitaus effizientere und skalierbarere Lösung (was bedeutet, dass die Lösung Aufgaben aus riesigen Datensätzen ausführen kann, ohne dass die Kosten entsprechend steigen). Der datenbasierte Ansatz zur Lösungsfindung hat die Art und Weise revolutioniert, wie Technologen an Probleme herangehen und sie lösen. Und er hat komplexe Aufgaben automatisiert wie beispielsweise die Überprüfung von Social-Media-Inhalten auf Hassreden – eine Aufgabe, die Informatiker Computern vor einigen Jahren niemals zugetraut hätten.
Weil sich das maschinelle Lernen kontinuierlich weiterentwickelt, erwarten Experten, dass seine Auswirkungen und Relevanz in verschiedenen Bereichen weiter zunehmen werden. Beispiele für die Auswirkungen auf verschiedene Geschäftsbereiche finden Sie in Kapitel 2.
In den späten 1960er-Jahren konzentrierten sich viele Forscher auf die Erfassung domänenspezifischen Wissens und legten damit den Grundstein für Expertensysteme, also technische Systeme oder Computer, die die Rolle von Experten in einem bestimmten Bereich, wie etwa der Arzneimittelforschung, spielten. Diese Expertensysteme waren die Vorläufer der heutigen KI-Systeme. In den 1970er-Jahren entwickelten Forscher einige der ersten Expertensysteme, darunter DENDRAL (für die chemische Massenspektrometrie) und MYCIN (zur Diagnose bakterieller Infektionen). Diese Systeme erfassten das Wissen und die Denkfähigkeiten menschlicher Experten, um so unterschiedliche Ratschläge geben zu können, darunter einfache medizinische Diagnosen, aber auch Explorationsstrategien für den Mineralienabbau.
Die Expertensysteme funktionierten in engen Themenbereichen gut. Aber die Kosten und Schwierigkeiten bei der Pflege und Skalierung ihres regelbasierten Wissens schränkten ihre Nützlichkeit deutlich ein. Forschung und Entwicklung von Expertensystemen verliefen ungefähr so:
In den späten 1970er-Jahren
unterstützte das Tauwetter des KI-Winters (siehe folgenden Abschnitt) die breitere Einführung von Expertensystemen in verschiedenen Branchen, darunter im Gesundheitswesen, im Finanzwesen und in der Fertigung. Während dieser Zeit entwickelten Informatiker spezielle Tools zur Erweiterung ihrer Expertensysteme. Gleichzeitig wuchs der Nutzen dieser Systeme exponentiell.
In den 1990er-Jahren
wurden die Grenzen der Expertensysteme deutlich, insbesondere ihre Unfähigkeit, aus ihren Verarbeitungserfahrungen zu lernen oder ihre Leistung ohne eine externe Programmierung zu verbessern. Dieser Mangel führte zu einem Rückgang bei der Entwicklung eigenständiger Expertensysteme. Informatiker begannen, sie in größere, komplexere Computersysteme zu integrieren.
In jüngerer Zeit erleben die Ideen, die den Expertensystemen zugrunde liegen, eine Art Revival, obwohl sie häufig in hybriden Formen auftreten, die maschinelles Lernen (siehe vorangegangenen Abschnitt) und andere datengesteuerte Techniken einbeziehen. Auch wenn nicht viele Unternehmen wegen ihrer Einschränkungen eigenständige Expertensysteme entwickeln und einsetzen, bleibt das Grundkonzept der Erfassung und Anwendung menschlicher Expertise in Computermodellen ein wesentlicher Bestandteil der KI. Umfassendere KI-Lösungen integrieren Expertensysteme sogar als Ergänzung zu anderen fortgeschrittenen Methoden (wie maschinelles Lernen und natürliche Sprachverarbeitung (Natural Language Processing, kurz NLP); mehr dazu finden Sie im Abschnitt »Weitere KI-Entwicklungen in den 1980er-Jahren« weiter hinten in diesem Kapitel).
Die Einführung von Expertensystemen war also ein wichtiger Moment in der Geschichte der künstlichen Intelligenz. Die Entwicklung von Expertensystemen war Vorreiter von Wissenstechniken, die Informatiker noch heute zum Training von KI-Systemen verwenden. Allerdings basieren die meisten KI-Tools inzwischen eher auf maschinellem Lernen als auf explizit programmierten Regeln, die menschliches Eingreifen erfordern, da es einfacher zu skalieren ist.
Nach dem Hype um künstliche Intelligenz in den 1960er- und frühen 1970er-Jahren wurden die Grenzen der frühen KI deutlich. Das führte zu einer geringeren Finanzierung und einem sinkenden Interesses, was als KI-Winter bezeichnet wird. Der Lighthill-Bericht, der für den British Science Research Council erstellt und 1973 veröffentlicht wurde, trug zu diesem KI-Winter bei. Der Bericht kritisierte den Mangel an praktischen Anwendungen und stellte das Potenzial der KI-Forschung infrage. Diese Kritik führte in mehreren Ländern zu einer Kürzung der staatlichen Förderung, darunter auch im Vereinigten Königreich.
Doch selbst während dieser Zeit der reduzierten Finanzierung wurde eine Forschung weiter verfolgt, die vor allem grundlegende technische Fähigkeiten wie Wahrscheinlichkeitsschlussfolgerungen, neuronale Netzwerke und intelligente Agenten weiterentwickelte. Selbst in diesen wenig optimistischen Zeiten erzielten damit einige Informatiker wichtige Fortschritte, bis das maschinelle Lernen in den 1980er-Jahren mit ihren wegweisenden Innovationen eine neue Ära einläutete.
Die Lehren aus dem KI-Winter der 1970er-Jahre prägen bis heute die ethische Debatte um realistische versus übertriebene Behauptungen in der KI-Welt. Diese Debatte ist wichtiger denn je, da weltweit unterschiedliche Meinungen über die Versprechen und Gefahren der KI aufeinanderprallen.
Wenn man über die Geschichte der künstlichen Intelligenz (KI) spricht, kommt man um die Geschichte des Stanford Cart nicht herum. Dabei handelt es sich um einen ferngesteuerten vierrädrigen Wagen, der erstmals in den 1960er-Jahren vorgestellt wurde und später mit einer Kamera und einem Bordcomputer für Sicht und Steuerung ausgestattet wurde. Dieser Prototyp war einer der ersten Versuche, ein selbstfahrendes Fahrzeug zu bauen. Der Wagen, dessen Entwicklung über einen Zeitraum von 20 Jahren dauerte, diente als Plattform für die Forschung in den Bereichen Computervision, Wegplanung und autonome Navigation.
Die Entwicklung des Stanford-Cart-Projekts spiegelte nicht nur die Entwicklung von KI und Robotik innerhalb von 20 Jahren wider, sondern prägte auch die weitere Forschung. Das Projekt bleibt damit ein Beweis für die nachhaltige und iterative Entwicklung im Bereich der KI.
Die Entwicklungsstufen des Stanford Cart umfassen:
Fernsteuerung:
In den 1960er-Jahren war die erste Version des Wagens mit einer Fernsteuerungsfunktion ausgestattet. Bei der Entwicklung des Wagens damit zu beginnen, war äußerst sinnvoll: Denn der Wagen diente auch als Forschungsplattform, um das Problem der Fernsteuerung eines Mond-Rovers von der Erde aus zu untersuchen.
Selbstnavigation:
Anfang der 1970er-Jahre wurde der Wagen mit einer Kamera und einem Bordcomputer ausgestattet, sodass er einen Hindernisparcours bewältigen konnte. Er machte Fotos und berechnete dann auf der Grundlage dieser Bilder den besten Weg. Später in den 1970er-Jahren ermöglichten fortschrittlichere Computervision-Algorithmen dem Wagen, komplexe Umgebungen schneller zu erfassen, gleichzeitig wurden auch die Bildverarbeitungsfähigkeiten verbessert.
Komplexe Navigation in Echtzeit: In den 1980er-Jahren konnte der Wagen Straßen folgen und Hindernissen in Echtzeit ausweichen. Das war größtenteils auf Verbesserungen bei der Hard- und Software zurückzuführen, verursacht durch eine stark gestiegene Computerleistung. Diese Fähigkeit gilt als ein wichtiger Meilenstein in der Entwicklung autonomer Fahrzeuge, die erst Jahrzehnte später in die kommerzielle Produktion gingen. Die gesteigerte Rechenleistung ermöglichte schnellere und komplexere Berechnungen, während fortschrittliche Algorithmen es dem Wagen ermöglichten, sekundenschnelle Entscheidungen zu treffen.
Als eine der ersten praktischen Anwendungen von KI in der Robotik demonstrierte der Stanford Cart, wie Computer mit der realen Welt interagieren können. Die Computerkomponenten, die visuelle Eingaben und Analysen ermöglichten, unterstrichen die potenziellen Vorteile einer ausgefeilten Bilderkennung und Szeneninterpretation. Die Robotik und autonomen Systeme zur Wegplanung und Hindernisvermeidung verwenden noch in heutiger Zeit algorithmische Techniken, die der Stanford Cart erstmals vorstellte.
Die 1980er-Jahre gelten als entscheidendes Jahrzehnt in der Entwicklung der künstlichen Intelligenz, geprägt durch enorme Fortschritte in verschiedenen Teilbereichen, insbesondere im maschinellen Lernen, in neuronalen Netzwerken und in der Verarbeitung von natürlicher Sprache. In dieser Zeit wurden grundlegende Fortschritte erzielt, die das Fundament für die KI-Technologien von heute legten.
Zu den wichtigsten Entwicklungen dieses Jahrzehnts gehören:
Backpropagation:
Die Einführung und Bekanntmachung des Backpropagation-Algorithmus zum Trainieren neuronaler Netzwerke. Vor der Backpropagation war das Trainieren komplexer neuronaler Netzwerke sehr rechenintensiv und wenig effektiv. Der Backpropagation-Algorithmus rationalisierte den Trainingsprozess, indem er den Fehler zwischen vorhergesagten und tatsächlichen Ergebnissen effizient berechnete und diesen Fehler dann über das Netzwerk zurückverteilte, um die interne Gewichtung anzupassen (die die Eingabedaten in den Hidden Layer des Netzwerks transformieren). Diese Innovation erleichterte das Trainieren mehrschichtiger neuronaler Netzwerke und ebnete den Weg für komplexere Architekturen und Anwendungen.
Deep Learning
:
Ein Teilgebiet des maschinellen Lernens, das neuronale Netzwerke mit drei oder mehr Schichten verwendet. Forscher wie Geoffrey Hinton, Yann LeCun und Yoshua Bengio (an verschiedenen Universitäten tätig) waren in dieser Zeit von entscheidender Bedeutung, da sie den Grundstein für dieses Teilgebiet legten. Die mehrschichtigen neuronalen Netzwerke kamen in einer Reihe von Anwendungen zum Einsatz – von der Bild- und Spracherkennung bis zum Verständnis natürlicher Sprache. Das wiederum sollte später Innovationen bei der Automatisierung verschiedener Geschäftsprozesse vorantreiben.
Verarbeitung natürlicher Sprache (Natural Language Processing
, kurz NLP
):
Ursprünglich basierten die NLP-Systeme von Programmierern größtenteils auf von Hand erstellten Regeln. In den 1980er-Jahren kam es jedoch zu einer deutlichen Verlagerung hin zu statistischen Modellen. Dadurch wurden diese Systeme robuster und skalierbar. Gleichzeitig war damit der Weg frei für Ansätze, die auf maschinellem Lernen basierten und die NLP-Landschaft verändern sollten. Fortan waren komplexere Anwendungen wie Chatbots, Übersetzungsdienste und Tools zur Stimmungsanalyse möglich.
Robotik
:
Das Jahrzehnt markierte auch den Beginn bedeutender Fortschritte in der Robotik, von denen viele auf den grundlegenden Konzepten der KI basierten. Das Stanford-Cart-Projekt beispielsweise (siehe vorheriger Abschnitt) war ein entscheidender Katalysator für die Forschung an autonomen Systemen.
Die bemerkenswerte Reise der künstlichen Intelligenz (KI) reicht von ihren mythologischen Inspirationen (Talos, der bronzene Riese in der griechischen Mythologie, der Kreta beschützte) bis hin zu bahnbrechenden Erfindungen wie Pascals Rechenmaschine (besprochen im Abschnitt »Frühe technologische Fortschritte« weiter vorn in diesem Kapitel) und Projekten wie dem Stanford Cart (siehe den Abschnitt »Der Stanford Cart: Von den 60ern bis in die 80er-Jahre« weiter vorn in diesem Kapitel). Die Fortschritte seit Anfang der 2010er-Jahre haben die KI-Landschaft dann grundlegend transformiert und die Art und Weise verändert, wie Menschen über die Rolle der Technologie in verschiedenen Bereichen denken – in Wirtschaft und Gesellschaft.
Ab den 1990er-Jahren führten rasante Fortschritte in verschiedenen Disziplinen der KI-Forschung zu erweiterten Fähigkeiten im Bereich des maschinellen Lernens und des Deep Learning. Andere Fortschritte verhalfen der KI zu der Fähigkeit, scheinbar intuitiv zu denken und menschenähnliche Inhalte zu generieren.
Zwischen den 1990er- und den frühen 2000er-Jahren entwickelte sich das maschinelle Lernen zur dominierenden Kraft in der KI-Entwicklung. (Eine Einführung in das maschinelle Lernen finden Sie im Abschnitt »Maschinelles Lernen« weiter vorn in diesem Kapitel.) In diesem KI-Bereich werden Algorithmen verwendet, um riesige Datensätze zu analysieren und damit Muster zu erkennen und Vorhersagen ohne explizit programmierte Regeln zu treffen. Getrieben durch eine deutliche Steigerung der Rechenleistung und der Datenverfügbarkeit führte das maschinelle Lernen zu neuen Anwendungsfällen im Bereich der Computervision (wo Computer Informationen aus Bildern, Videos und anderen Eingaben ableiten) und Empfehlungssysteme (Informationsfiltersysteme, die dem Nutzer die für ihn relevantesten Informationen vorschlagen).
Diese Fortschritte in der KI waren auch deshalb möglich, weil die KI-Engines Zugriff auf große Datensätze hatten. Die Modelle, die zur Analyse dieser Datensätze verwendet wurden, ahmten die Mustererkennung und Entscheidungsfindung menschenähnlich nach, indem sie statistische Beziehungen zwischen den Daten nutzten. Diese Entwicklungen zeigten, wie schnell ein KI-System selbstständig aus Daten lernen (extrapolieren) konnte, ohne dass ein Programmierer spezifische und explizite Anweisungen für dieses System codieren musste. Maschinelles Lernen ist bis heute das Herzstück der KI.
In den 1990er-Jahren kam es zu einem Wendepunkt in der Geschichte der KI, der die Fantasie der Menschen auf der ganzen Welt beflügelte. IBMs Deep Blue, ein Schachcomputer, besiegte 1997 den amtierenden Schachweltmeister Garri Kasparow. Obwohl Deep Blue damals noch nicht über ein modernes neuronales Netzwerk verfügte und sich stattdessen auf Brute-Force-Heuristiken und spezielle Schachalgorithmen verließ, wurden grundlegende Techniken des maschinellen Lernens integriert, um Brettpositionen zu bewerten und das Spiel zu verbessern. Deep Blues Sieg war damit ein weiterer bedeutsamer Fortschritt für KI und maschinelles Lernen. Er
hat bewiesen, dass eine Maschine einen Menschen bei einer Aufgabe, die komplexe Entscheidungen über viele Schritte hinweg erfordert, übertreffen kann.
löste große Debatten über die Zukunft der KI und ihre möglichen Auswirkungen auf alle Facetten des Lebens aus. Diese Diskussionen wurden durch die Einführung der generativen künstlichen Intelligenz deutlich beschleunigt (siehe den Abschnitt »Inhalte erstellen mit generativer KI« weiter hinten in diesem Kapitel).
unterstützte Kasparows Ansicht, dass Maschinen und Menschen gemeinsam viel mehr erreichen könnten als jeder von ihnen allein. Er führte den Begriff Advanced Chess für eine Schachform ein, bei der Menschen gemeinsam mit Computersystemen Schach spielen, und betonte, dass menschliche Intuition und maschinelle Berechnungen zusammen eine nahezu unschlagbare Kombination darstellen.
Kasparows Idee des fortgeschrittenen Schachs hatte einen nachhaltigen Einfluss darauf, wie wir heute über KI denken. Viele KI-Forscher betrachten fortgeschrittenes Schach als Vorläufer moderner Theorien über KI, die einem Menschen in verschiedenen Bereichen als Assistent dient. (Satya Nadella, CEO von Microsoft, hat diese Unterstützung allgemein als KI-Co-Pilot bezeichnet.) In den folgenden Kapiteln gehe ich auf die Rolle der KI als ergänzendes Werkzeug für Menschen im Bereich Wirtschaft und Marketing ein. In diesen Diskussionen können Sie die philosophischen Wurzeln dieses kooperativen Ansatzes, der sich aus Kasparows Erkenntnissen ableitet, deutlich erkennen.
In den letzten Jahren hat das Aufkommen des Deep Learning die Fähigkeiten und Genauigkeit von KI-Systemen deutlich verbessert. Deep Learning baut auf den Grundlagen des traditionellen maschinellen Lernens auf. Es verwendet neuronale Netzwerke mit mehreren Schichten – oft als tiefe neuronale Netzwerkebezeichnet –, um bei Aufgaben wie Bildklassifizierung, Spracherkennung und Verarbeitung natürlicher Sprache ein hohes Maß an Genauigkeit zu erreichen.
Was Deep Learning von früheren KI-Technologien unterscheidet, sind die Weiterentwicklung der Rechenleistung, die Verfügbarkeit riesiger Datensätze und die Verwendung komplexer Algorithmen, die neuronale Netzwerke mit mehreren Schichten optimieren. Diese mehrschichtige Architektur ermöglicht es dem System, komplexe Beziehungen in den Daten zu modellieren, was zu bemerkenswert präzisen Ergebnissen führt.
Deep-Learning-fähige Systeme
sind der Motor einer Vielzahl von KI-Anwendungen, die heute im Einsatz sind.
Deep Learning verändert die Automatisierung erheblich, indem es Systemen ermöglicht, komplexe analytische und prädiktive Aufgaben völlig autonom und ohne menschliches Eingreifen auszuführen. Ob Sie digitale Sprachassistenten wie Siri oder Alexa, sprachgesteuerte TV-Fernbedienungen oder fortschrittliche Fahrerassistenzsysteme in modernen Autos verwenden: Deep Learning ist die Schlüsseltechnologie, die vielen dieser Innovationen zugrunde liegt.
versprechen, in den nächsten Generationen ihre übergreifende Intelligenz zu steigern. Diese zukünftigen Systeme werden wahrscheinlich weniger Daten für ein effektives Lernen benötigen, auf immer ausgefeilteren Prozessoren arbeiten und immer fortschrittlichere Algorithmen verwenden. Menschen, die KI-Technologien entwickeln, verfolgen das Ziel, die künstliche Intelligenz näher an die Komplexität und Fähigkeiten des menschlichen Gehirns heranzuführen.
Obwohl es für Wissenschaftler und Programmierer noch Jahrzehnte dauern dürfte, bis sie künstliche allgemeine Intelligenz erreichen – einen Zustand, in dem die KI über Denk-, Lernfähigkeiten und einen Verstand verfügt, die denen des Menschen ähneln –, ist Deep Learning zweifellos ein wichtiger Schritt auf diesem Weg.
Der Turing-Test warf die grundlegende Frage auf: »Können Maschinen denken?« Man begann darüber nachzudenken, ob Menschen bei einer textbasierten Interaktion zwischen einer Maschine und einem Menschen unterscheiden können. (Informationen zum Turing-Test finden Sie im Abschnitt »Alan Turing und maschinelle Intelligenz« weiter vorn in diesem Kapitel.) Diese Frage schien 2016 durch den bahnbrechenden Sieg von AlphaGo über Lee Sedol in einer Partie Go eine endgültige Antwort zu finden.
AlphaGo war die Idee von DeepMind, einem britischen KI-Unternehmen, das später von Google aufgekauft wurde. Anders als herkömmliche KI-Programme wurde AlphaGo speziell dafür entwickelt, das Spiel Go zu meistern, ein altes Brettspiel, dessen Komplexität die von Schach bei Weitem übertrifft. Obwohl das Spiel einfache Regeln hat, verleiht ihm die schiere Anzahl der möglichen Züge eine astronomische Komplexität. Top-Go-Spieler wie Lee Sedol, eine führende Persönlichkeit in der Welt des Go, werden für ihre Intuition, Kreativität und analytischen Fähigkeiten verehrt.
Zur Vorbereitung auf das Duell mit Lee Sedol im Jahr 2016 wurde AlphaGo einem rigorosen Training unterzogen. Dabei kam eine Kombination aus Methoden des maschinellen Lernens, darunter Deep Learning, und anderen Algorithmen wie der wahrscheinlichkeitsbasierten Monte Carlo Tree Search zum Einsatz. Das Programm analysierte Tausende von historischen Go-Spielen und, was vielleicht noch beeindruckender ist, verfeinerte seine Fähigkeiten, indem es zahllose Spiele gegen sich selbst spielte. Dieses Selbstspiel ermöglichte es AlphaGo, verschiedene Strategien und Taktiken zu simulieren und so seine eigenen Spielfähigkeiten zu verbessern.
Als AlphaGo Lee Sedol in einer Serie von fünf Spielen besiegte, wurde die globale KI-Community hellhörig und nahm zwei überraschende Erkenntnisse wahr:
Der unerwartete Einfallsreichtums der KI:
Vor allem überraschte AlphaGos Fähigkeit, scheinbar kreative und intuitive strategische Entscheidungen zu treffen – Eigenschaften, von denen viele annahmen, dass sie ausschließlich menschlicher Wahrnehmung vorbehalten seien. Sergey Brin von Google – dessen Unternehmen DeepMind übernommen hat – war beim dritten Spiel in Seoul dabei und sagte im Anschluss: »Wenn man wirklich großartigen Go-Spielern beim Spielen zusieht, hat das auch etwas von Schönheit. Ich bin begeistert, dass es uns gelungen ist, diese Art von Schönheit in unsere Computer zu bringen.«
Die tiefgreifenden Fähigkeiten und das Zukunftspotenzial der KI: Der Sieg von AlphaGo war mehr als nur ein technologischer Meilenstein; er führte zu einem Paradigmenwechsel, der das Bewusstsein für KI bei Führungspersönlichkeiten aus den verschiedensten Sektoren schärfte – von Wissenschaftlern und Politikern bis hin zu Wirtschaftsführern und der breiten Öffentlichkeit.
Dieses historische Ereignis, bei dem AlphaGo einen nahezu unschlagbaren menschlichen Go-Spieler besiegte, war ein unwiderlegbarer Beweis für die Fortschritte im Bereich Deep Learning. Es zeigte, dass künstliche Intelligenz tatsächlich Aufgaben ausführen kann, von denen viele zuvor dachten, sie seien nur mit menschlicher Intelligenz ausführbar.
Die Fortschritte im Bereich der KI nach 2010 führten zu bahnbrechenden Innovationen, insbesondere bei der Entwicklung generativer Modelle (die neue synthetische Daten wie Texte oder Bilder generieren können). In den 2020er-Jahren fanden generative Modelle Anwendung in einer Vielzahl von Bereichen – von Kunst und Unterhaltung bis hin zu wissenschaftlicher Forschung und der Entdeckung von Medikamenten. Zwei spezifische Entwicklungen bildeten die notwendige Grundlage für die Weiterentwicklung generativer Modelle:
Generative Adversarial Networks (GANs):
GANs wurden 2014 von dem Computerforscher Ian Goodfellow und seinen Kollegen vorgestellt und waren in der Lage, unglaublich realistische Bilder, Texte und andere Datentypen zu generieren. Dieser bedeutende Fortschritt bot ein robustes Framework für die Generierung komplexer, hochwertiger digitaler Assets. Spätere Weiterentwicklungen bei GANs führten zu Modellen wie zum Beispiel StyleGAN, das hochauflösende, äußerst realistische Bilder generieren kann.
Die Transformer-Architektur:
Ursprünglich für die Verarbeitung natürlicher Sprache entwickelt, wurde sie später für generative Aufgaben angepasst. Diese Anpassung an generative Aufgaben gipfelte in Modellen wie der GPT-Reihe von OpenAI, die menschenähnlichen Text generieren kann.
Ich befasse mich ausführlich mit generativen KI-Modellen in Kapitel 8.
Kapitel 2
IN DIESEM KAPITEL
Betreuen von Kunden mit KI-AnwendungenBewerten und Validieren von Produkten und TechnologienFördern von Innovationen in Forschung und EntwicklungPersonalisieren und Verwalten von Vertriebs- und MarketingbemühungenAnalysieren und Optimieren rechtlicher AufgabenSeit den 1980er-Jahren kommt künstliche Intelligenz (KI) in Unternehmen immer stärker zum Einsatz, denn jede Innovation kann auch neue Möglichkeiten für das Geschäftsmodell bedeuten. Da Technologien die Basis von Geschäftsprozessen (von der Buchhaltung bis zur Bestandsverwaltung) sind, bedeutet jeder Fortschritt in der KI, dass mehr Prozesse automatisiert oder bestehende, bereits automatisierte Prozesse kreativ verändert werden können.
Generative KI – ein Bereich der künstlichen Intelligenz, der sich auf die Erstellung neuer Inhalte (wie Texte, Bilder und Musik) konzentriert und aus vorhandenen Daten lernt – ist die bedeutendste Entwicklung in der Geschichte der künstlichen Intelligenz. Sie ermöglicht zahlreiche neue Anwendungen, von denen viele bis vor Kurzem noch nicht vorstellbar waren. Die Einsatzbereiche, darunter die Arzneimittelforschung und Videoerstellung, erstrecken sich auf alle Abläufe und Funktionen innerhalb von Organisationen. Die anspruchsvolleren Anwendungen (zum Beispiel die Suche nach Arzneimitteln für bestimmte Krankheitsbilder) erfordern ein tiefgreifendes, branchenspezifisches Wissen und den Zugriff auf spezielle Datensätze. Tatsächlich ist die Qualität und Vollständigkeit des Datensatzes, der zum Trainieren eines Tools verwendet wird, entscheidend bei der Frage, ob die KI zunehmend kompliziertere Aufgaben ausführen kann.
Eine aktuelle Studie von McKinsey & Company, einem globalen Management-Beratungsunternehmen, unterstreicht das Potenzial generativer KI. Darin wurde errechnet, wie stark die Produktivität am Arbeitsplatz damit zunimmt und wie hoch der Wertzuwachs der Weltwirtschaft ist. Konkret schätzt die Studie, dass generative KI in 63 verschiedenen Use Cases (spezifischen, eng gefassten Geschäftsanwendungen oder Implementierungen innerhalb eines Unternehmens) jährlich einen Wertbeitrag zwischen 2,6 und 4,4 Billionen US-Dollar leisten kann. Um diese Zahlen in einen Kontext zu setzen: Sie entsprechen in etwa dem gesamten BIP des Vereinigten Königreichs im Jahr 2021. Dabei berücksichtigt die Studie nicht einmal die zusätzlichen Produktivitätsvorteile, die durch die Integration generativer KI in vorhandene Software jenseits dieser 63 definierten Anwendungsfälle erzielt werden.
Insbesondere ergab die Studie, dass drei Viertel des Werts, den generative KI schaffen kann, die Bereiche Kundenbetreuung, Marketing, Vertrieb, Softwareentwicklung sowie Forschung und Entwicklung betreffen. Sie können diese McKinsey-Studie selbst online lesen. Gehen Sie einfach zu www.mckinsey.com, wählen Sie das Suchsymbol, geben Sie »wirtschaftliches Potenzial generativer KI« in das Textfeld ein und klicken Sie erneut auf das Suchsymbol. Wählen Sie das erste Suchergebnis aus, um auf die Studie zuzugreifen.
In diesem Kapitel finden Sie einen pragmatischen Ansatz für den Einsatz von KI. Er untersucht verschiedene Bereiche in einem Unternehmen – von Marketing und Vertrieb bis hin zu Produktentwicklung und der Rechtsabteilung. Das soll Ihnen dabei helfen zu bestimmen, welche wichtigen Aktivitäten oder Arbeitsabläufe Sie durch KI verbessern oder sogar ersetzen können. Da derzeit eine Fülle generativer KI-Lösungen in Sicht ist (dank der wegweisenden Arbeit von OpenAI, Google, Anthropic und anderen), untersucht dieses Kapitel die gängigsten Use Cases. Damit liefert es auch wertvolle Insights für Manager, die KI in ihre Geschäftsprozesse integrieren wollen.