Generative Künstliche Intelligenz -  - E-Book

Generative Künstliche Intelligenz E-Book

0,0
39,99 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.

Mehr erfahren.
Beschreibung

Generative Künstliche Intelligenz beschreibt eine Klasse von KI-Systemen, die in der Lage sind, aus großen Datenmengen zu lernen und auf dieser Grundlage neue, bisher nicht gesehene Inhalte zu generieren, wie beispielsweise Texte, Bilder, Musik oder Videos. Dabei wird die Generierungskapazität der KI mit dem Ziel eingesetzt, kreative Prozesse zu unterstützen, neue Ideen zu generieren und innovative Lösungsansätze zu liefern. Trotz ihrer beeindruckenden Fähigkeiten haben generative KI-Systeme auch ihre Herausforderungen, wie die Kontrolle über den generierten Inhalt, das Verständnis von Kontext und Bedeutung sowie ethische Fragen​ im Zusammenhang mit der Nutzung von generativer KI. Der Band gibt einen Überblick über generative KI-Systeme und beleuchtet die Auswirkungen auf das Management von Innovationen, Wirtschaft, Bildung und Gesellschaft.​

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
MOBI

Seitenzahl: 372

Veröffentlichungsjahr: 2024

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Inhaltsverzeichnis

InhaltsverzeichnisHinweis zum UrheberrechtmyBook+ImpressumVorwortI. Orientierung und Grundverständnis1 Generative KI: Mensch-Maschine-Augmentation1.1 Einleitung1.2 Industrielle Revolutionen1.3 Entwicklungslinien von Mensch-Maschine-Interaktionen1.4 Augmentation: Zusammenarbeit Mensch-Maschine1.5 Struktur und Aufbau des BuchesLiteratur2 Große Sprachmodelle2.1 Einleitung2.2 Architektur großer Sprachmodelle2.3 Die Vorhersage des nächsten Wortes2.4 Emergente Fähigkeiten2.5 Prompt Engineering2.6 Schwächen und Herausforderungen2.7 Aktuelle Entwicklungen2.8 ZusammenfassungLiteratur3 Kreativität der generativen KI3.1 Generative künstliche Intelligenz3.2 Der kreative Prozess3.3 GAI-Kreativität im sprachlichen Bereich3.4 Erzeugung von Bildern aus Text3.5 Automatische Musikgenerierung3.6 ZusammenfassungLiteratur4 Hybride Intelligenz: Zusammenwirken von menschlicher und maschineller Intelligenz4.1 Einleitung4.2 Hybride Intelligenz als Basis für gelingende Zusammenarbeit von Menschen und smarten Maschinen4.3 Zusammenarbeit mit intelligenten Assistenzsystemen: Formen, Intensitäten, Rollen, Aufgabenteilung4.3.1 Aufgabenkomplexität und Kooperationstypen4.3.2 Stufen der Intensität der Zusammenarbeit4.3.3 Mensch-Maschine-Teams: Rollen von Assistenzsystemen/Robotern4.3.4 Mensch-Maschine-Teams: Sinnkonstruktion, Produktivität, Zufriedenheit, Selbstwirksamkeit4.4 Spezifische menschliche Kompetenzen für die gelingende Zusammenarbeit mit generativer KI4.5 Akzeptanzfaktoren für die Zusammenarbeit mit generativer KI4.6 Zusammenfassung und Ausblick auf ManagementaufgabenLiteraturII. Management von Innovationen mit generativer KI5 Chancen und Risiken der generativen KI im strategischen Management5.1 Was ist generative KI?5.2 Generative KI und strategisches Management5.3 Auswirkungen auf einzelne Bereiche des strategischen Managements5.4 Prompts für das strategische Management5.5 Risiken und Herausforderungen beim Einsatz von generativer KI5.6 SchlussfolgerungLiteratur6 Personal- und Kompetenzentwicklung für generative KI in Organisationen6.1 Einleitung6.2 Neue Ausgangspunkte für die Personal- und Kompetenzentwicklung6.2.1 Veränderte Rollen und Aufgabenbereiche in der Zusammenarbeit mit generativer KI6.2.2 Augmentationsstrategien für die Personal- und Kompetenzentwicklung6.3 Kompetenzentwicklung für den Aufbau und die Nutzung generativer KI in Organisationen6.4 Strategien für die Kompetenzentwicklung im KI-Zeitalter6.4.1 Überblick über die Strategien6.4.2 Beschleunigungsstrategie (»Fast Upskilling«)6.4.3 Kulturgetriebene Transformationsstrategie6.4.4 Datengetriebene Strategie für die agile Kompetenzentwicklung6.4.5 Transformationsstrategie für personalisiertes Lernen und Selbstorganisation6.4.6 Innovationsstrategie unter Nutzung von erweiterter Realität und »Affective Computing«6.5 Zusammenfassung und AusblickLiteratur7 Hybride Innovationsteams – Augmentation menschlicher Innovationsteams mit KI7.1 Einleitung7.2 Von künstlicher Intelligenz zu hybrider Intelligenz7.3 Generative KI und große Sprachmodelle7.4 Hybride Intelligenz und Innovationsteams7.4.1 Insights und Opportunitäten7.4.2 Ideengenerierung und Konzepterstellung7.4.3 Entwicklung, Engineering und Design7.4.4 Markteinführung7.5 Zusammenfassung und AusblickLiteraturIII. Auswirkungen auf Wirtschaft, Bildung und Gesellschaft8 Zukunft Arbeit: Auswirkungen generativer KI auf den Arbeitsmarkt8.1 Einleitung8.2 Theoretische Überlegungen zum KI-induzierten Arbeitsmarktwandel8.2.1 Bisherige Effekte auf die Arbeitsnachfrage8.2.2 Erwägungen zur Wirkung generativer KI auf die Arbeitsnachfrage8.2.3 Akzentuierte Arbeitsangebotslücke8.3 Einfluss von KI in verschiedenen Berufen – Erkenntnisse aus der Schweiz8.3.1 Beschäftigungsentwicklung in den Branchen und Berufen8.3.2 Betroffenheit der Berufsfelder durch Automatisierung und KI8.3.3 Veränderte Kompetenzanforderungen und berufliche Mobilität8.4 Regulatorische Handlungsfelder8.5 AusblickLiteratur9 Zukunft Bildung: Auswirkungen generativer KI auf Bildungssysteme9.1 Einleitung: KI in der Bildung9.2 Aufbau von Ökosystemen in der Bildung9.3 Ziele: Kompetenzen im Zeitalter der generativen KI9.4 Inhalte: »Flipped Curriculum« – umgedrehtes Curriculum9.5 Organisation und Lernräume: ein Paradigmenwechsel9.6 Assessment: ein doppelspuriges System9.7 Bildungsprozesse mit generativer KI gestalten: Neue Assistenz-, Trainings- und Assessmentsysteme9.8 Zusammenfassung und AusblickLiteratur10 Generative KI aus ethischer Sicht10.1 Einführung10.2 Grundlagen generativer KI10.3 Eine ethische Diskussion generativer KI10.3.1 Erzeugung von Bildern aus Text10.3.2 Urheberschutz der Werke10.3.3 Datenschutz und informationelle Autonomie bei Prompts10.3.4 Verantwortung und Haftung10.3.5 Stereotype, diskriminierende, rassistische und sexistische Darstellungen10.3.6 Falsche Darstellungen von Wesen und Dingen10.3.7 Zurückweisungen und Einschränkungen10.3.8 Wissenschaftlichkeit und Referenzierbarkeit10.3.9 Vereinheitlichung und Verflachung10.3.10 Standardsprache und Gendersprache10.3.11 Abhängigkeit von Konzernen10.3.12 Erleichterung und Veränderung der Arbeit10.3.13 Ersetzung der Arbeit10.3.14 Unselbstständigkeit des Menschen10.3.15 Das Mensch-folgt-Maschine-Prinzip10.4 Ethische Leitlinien10.5 Zusammenfassung und AusblickLiteratur11 Die Regulierung von generativer KI im AI-Act11.1 Definition, Grundlagen und Funktionsweise von generativer KI11.2 Zielrichtung und Regelungssystematik des AI-Acts11.2.1 Anwendungsbereich11.2.2 Risikoklassen11.3 Regulierungsansätze für generative KI und Basismodelle11.3.1 General Purpose AI Systems11.3.2 Vorschriften für Anbieter von Basismodellen11.3.3 Pflichten für Anbieter von Basismodellen11.3.4 Pflichten für Anbieter von generativer KI11.3.5 Integration in Hochrisiko-KI-Systeme11.4 Fazit und AusblickLiteraturIV. Anwendungsbeispiele aus der Praxis12 Hochschulbildung: KI-basiertes Forschen und Schreiben12.1 Einleitung12.2 Neue Ausgangspunkte für den Forschungsprozess mit generativer KI12.2.1 Genre-Ansatz in der Hochschulbildung12.2.2 Forschungsprozess als Ko-Kreation von Textgenres12.2.3 Forschungsprozess: Ethischer Umgang in der Zusammenarbeit mit generativer KI12.3 Kompetenzentwicklung mit generativer KI12.3.1 Kompetenzen für das KI-basierte Forschen und Schreiben12.3.2 Verwendung KI-basierter Assistenzsysteme12.4 Anwendungsbeispiele12.4.1 »Artist« zur Förderung von Argumentationskompetenzen12.4.2 »SOCRAT« zur Förderung von Forschungskompetenz in der Einstiegsphase des Studiums12.5 ZusammenfassungLiteratur13 Generative KI in der Lehrerbildung: »Teacher Copilot« als Assistenz- und Trainingssystem für Lehrkräfte13.1 Einleitung13.2 Neue Ausgangspunkte für die Lehrerbildung13.3 Digitale Kompetenzen von Lehrpersonen im Zeitalter der generativen KI13.3.1 Digital Competence Framework for Educators13.3.2 Rahmenkonzept des technologischen pädagogischen Fachwissens (TPACK)13.4 Teacher Copilot: Assistenz-/Trainingssystem für Lehrpersonen13.4.1 Zielsetzung des Teacher Copilot13.4.2 Konzeption und Architektur des Teacher Copilot13.5 Erste Pilotversuche und Erfahrungen13.6 ZusammenfassungLiteratur14 Fallbeispiel SquirroGPT: Einfach mit Unternehmensdaten »chatten«14.1 Ausgangslage: Warum es mehr braucht als ChatGPT, um Unternehmensdaten sicher für KI zu verwenden14.2 Retrieval-Augmented Generation14.2.1 Grundlagen von Retrieval-Augmented Generation14.2.2 Warum ist der RAG-Ansatz sinnvoll?14.3 SquirroGPT: Die Unternehmenslösung für GPT14.3.1 Anwendungsfall: Kundenservice einer Krankenversicherungsgesellschaft14.3.2 Die Rolle von SquirroGPT im Kundendienst14.3.3 Vorteile von SquirroGPT im Kundendienst14.3.4 Kundendienst neu gedacht und Potenzial für andere Service Desks14.4 Fazit: Informationsinteraktion neu gedacht14.5 AusblickLiteratur15 Fallbeispiel Legal OS – Nutzung generativer KI für Rechtsfragen im Unternehmen15.1 Ausgangssituation: Die Ursprünge von Legal OS15.2 Die Zielsetzung und Funktionsweise von Legal OS15.3 Implementierung und Qualitätsentwicklung von Legal OS in Organisationen15.4 Bisherige Erfahrungen und Ausblick16 The Introduction of the Generative AI Co-Creator16.1 Introduction16.2 The co-creative process and the role of participants16.3 The Generative AI Co-Creator16.4 Nine rules for GAICC developmentBibliographyDie HerausgeberDie Autorinnen und AutorenIhre Online-Inhalte zum Buch: Exklusiv für Buchkäuferinnen und Buchkäufer!Stichwortverzeichnis

Buchnavigation

InhaltsubersichtCoverTextanfangImpressum
[1]

Hinweis zum Urheberrecht

Alle Inhalte dieses eBooks sind urheberrechtlich geschützt.

Bitte respektieren Sie die Rechte der Autorinnen und Autoren, indem sie keine ungenehmigten Kopien in Umlauf bringen.

Dafür vielen Dank!

myBook+

Ein neues Leseerlebnis

Lesen Sie Ihr Buch online im Browser – geräteunabhängig und ohne Download!

Und so einfach geht’s:

Gehen Sie auf https://mybookplus.de, registrieren Sie sich und geben Sie Ihren Buchcode ein, um auf die Online-Version Ihres Buches zugreifen zu können

Ihren individuellen Buchcode finden Sie am Buchende

Wir wünschen Ihnen viel Spaß mit myBook+ !

Bibliografische Information der Deutschen Nationalbibliothek

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar.

Print:

ISBN 978-3-7910-6220-4

Bestell-Nr. 10997-0001

ePub:

ISBN 978-3-7910-6221-1

Bestell-Nr. 10997-0100

ePDF:

ISBN 978-3-7910-6222-8

Bestell-Nr. 10997-0150

Sabine Seufert/Siegfried Handschuh (Hrsg.)

Generative Künstliche Intelligenz

1. Auflage, April 2024

© 2024 Schäffer-Poeschel Verlag für Wirtschaft · Steuern · Recht GmbH

www.schaeffer-poeschel.de

[email protected]

Bildnachweis (Cover): © Umschlag: Stoffers Grafik-Design, Leipzig

Produktmanagement: Rudolf Steinleitner

Dieses Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Alle Rechte, insbesondere die der Vervielfältigung, des auszugsweisen Nachdrucks, der Übersetzung und der Einspeicherung und Verarbeitung in elektronischen Systemen, vorbehalten. Alle Angaben/Daten nach bestem Wissen, jedoch ohne Gewähr für Vollständigkeit und Richtigkeit.

Schäffer-Poeschel Verlag Stuttgart Ein Unternehmen der Haufe Group SE

Sofern diese Publikation ein ergänzendes Online-Angebot beinhaltet, stehen die Inhalte für 12 Monate nach Einstellen bzw. Abverkauf des Buches, mindestens aber für zwei Jahre nach Erscheinen des Buches, online zur Verfügung. Ein Anspruch auf Nutzung darüber hinaus besteht nicht.

Sollte dieses Buch bzw. das Online-Angebot Links auf Webseiten Dritter enthalten, so übernehmen wir für deren Inhalte und die Verfügbarkeit keine Haftung. Wir machen uns diese Inhalte nicht zu eigen und verweisen lediglich auf deren Stand zum Zeitpunkt der Erstveröffentlichung.

Vorwort

Sprachmodelle wie ChatGPT und Co können Fragen beantworten, Programmcodes entwickeln, wissenschaftliche Studien zusammenfassen sowie beispielsweise nach gewünschten Vorgaben Bilder oder Musikstücke erstellen. Die generative künstliche Intelligenz (KI) ist somit ein Alleskönner, die Anwendungsmöglichkeiten sind vielfältig und weitreichend – und werden in Alltag und Arbeit vieles verändern. Generative KI-Systeme sind in der Lage, aus großen Datenmengen zu lernen und auf dieser Grundlage neue, bisher nicht gesehene Inhalte zu generieren. Obwohl generative KI-Systeme durch ihre beeindruckenden Kapazitäten auffallen, sind sie auch mit neuen ethischen und rechtlichen Herausforderungen verknüpft. Sie können falsche Informationen liefern oder diskriminierende Inhalte reproduzieren. Zudem ist die Klärung von Urheberrechtsfragen ein relevantes Thema. Angesichts der schnellen Entwicklung der Technologie ist es essenziell, sowohl ihre Potenziale als auch ihre Risiken zu verstehen und sie ­verantwortungsbewusst zu nutzen. Dieses Buch zielt darauf ab, seine Leserinnen und Leser auf eine Reise mitzunehmen, einen Überblick über generative KI-Systeme zu geben, die Auswirkungen auf das Management von Innovationen mit generativer KI zu beleuchten und zukünftige Möglichkeiten und Grenzen für unsere Wirtschaft, Bildung und Gesellschaft zur Diskussion zu stellen. Es ist eine Einladung an alle, die die Herausforderungen und Chancen, die sich aus der generativen KI ergeben, kritisch erforschen und verstehen wollen. Richtungweisend ist für uns dabei, die Zukunft der Bildung, Wirtschaft und Gesellschaft positiv beeinflussen zu können.

Wir möchten allen Autorinnen und Autoren unseren herzlichen Dank für ihre wertvollen Beiträge aussprechen, die maßgeblich zum Gelingen dieses Bandes beigetragen haben. Für die Koordination, Organisation und gründliche Durchsicht der Manuskripte möchten wir uns bei Frau Stéphanie Aubry und Frau Jacqueline Bühler im Team des Instituts für Bildungsmanagement und Bildungstechnologien an der Universität St.Gallen bedanken. Besonderer Dank gilt auch Frau Nora Valussi vom Schäffer-Poeschel Verlag. Ihre Buchidee hat uns fasziniert und ihre tatkräftige Unterstützung war entscheidend für die Umsetzung dieses Konzepts.

St. Gallen im Oktober 2023

Sabine Seufert Siegfried Handschuh

I. Orientierung und Grundverständnis

1 Generative KI: Mensch-Maschine-Augmentation

Sabine Seufert und Siegfried Handschuh

1.1 Einleitung

Gemäß einer kürzlich veröffentlichten Studie des World Economic Forum (2023) bleibt die Integration neuartiger Technologien, wie der künstlichen Intelligenz, in den kommenden fünf Jahren ein zentrales Element der Geschäftstransformation. Mehr als 85 % der befragten Organisationen betonen die wachsende Bedeutung der Einführung solch zukunftsweisender Technologien. Arbeitgeber rechnen in den nächsten fünf Jahren mit einem strukturellen Arbeitsmarktumbruch von 23 % der Arbeitsplätze. Diese disruptiven Entwicklungen können als eine Mischung aus neu entstehenden Arbeitsplätzen und wegfallenden Arbeitsplätzen interpretiert werden (World Economic Forum, 2023).

Diese technologischen Entwicklungen prägen Wirtschaft, Gesellschaft sowie auch das Bildungswesen nachhaltig. Laut UNESCO-Bericht (Miao et al., 2021) hat KI das Potenzial, den Prozess zur Erreichung der globalen Bildungsziele zu beschleunigen, indem sie Zugangsbarrieren zum Lernen abbaut, Managementprozesse automatisiert und Methoden optimiert, um die Lernergebnisse zu verbessern. Neben ihren Auswirkungen auf den Bildungssektor verändert die KI vor allem die Arbeitsmärkte, die industriellen Dienstleistungen, die landwirtschaftlichen Prozesse, die Wertschöpfungsketten und die Organisation von Arbeitsplätzen erheblich, wie auch der UNESCO-Bericht zu »Understanding the impact of Artificial Intelligence on skills development« (Shiohira, 2021) aufzeigt.

Über den Begriff der KIKünstliche Intelligenz, Definition herrscht in vielen Fällen kein Konsens. Während der Begriff der KI häufig in öffentlichen Debatten verwendet wird, verzichten viele Fachleute gänzlich auf dessen ­Verwendung und reduzieren KI auf maschinelles LernenMaschinelles Lernen (ML) (vgl. hierzu SBFI, 2019). Im Gegensatz zu früheren, regelbasierten KI-Ansätzen versuchen die heutigen, statistischen Verfahren nicht mehr menschliche Regeln abzubilden, sondern ML-Entscheidungen werden durch Optimierung und statistische Verfahren getroffen. Oftmals findet eine Annäherung über die beiden Elemente des Begriffs statt: »Intelligenz« und »künstlich«. Unter Intelligenz werden kognitive Fähigkeiten verstanden, die einem helfen, den Alltag zu bewältigen und Probleme zu lösen. Definitionen beziehen sich dabei häufig auf Gottfredson (1997): »Intelligence is a very general mental capability that, among other things, involves the ability to reason, plan, solve problems, think abstractly, comprehend complex ideas, learn quickly and learn from experience. It is not merely book learning, a narrow academic skill, or test-taking smarts. Rather, it reflects a broader and deeper capability for comprehending our surroundings – ›catching on‹, ›making sense‹ of things, or ›figuring out‹ what to do« (S. 13).

»Künstliche« Intelligenz würde demnach bedeuten, dass Denkprozesse, Problemlösungs- und Entscheidungsprozesse durch Systeme mit KI-Methoden übernommen werden. Häufig zitiert wird in diesem Kontext die Definition von Bellman, die bereits in den 1980er-Jahren entstanden ist. KI wird als Subgebiet der Intelligenz definiert, die sich auf Maschinen bezieht: »With this term, we mean systems that perform […] activities that we associate with human thinking, activities such as decision-making, problem solving, learning […]« (Bellman, 1978, S. 3). Zusammenfassend geht es darum, Maschinen zu entwickeln, die komplexe Ziele erreichen können. Durch Anwendung von Techniken des maschinellen Lernens werden diese Maschinen in die Lage versetzt, die Umgebung zu analysieren und sich an veränderte Rahmenbedingungen anzupassen (De Laat et al., 2020).

Eine entsprechend umfassende Definition von KI liefert die High-Level Expert Group on Artificial Intelligence der EU (2018, S. 1): »Artificial intelligence (AI) refers to systems that display intelligent behaviour by analysing their environment and taking actions – with some degree of autonomy – to achieve specific goals. AI-based systems can be purely software-based, acting in the virtual world (e.g., voice assistants, image analysis software, search engines, speech and face recognition systems) or AI can be embedded in hardware devices (e.g., advanced robots, autonomous cars, drones or Internet of Things applications).« Mit dem Ziel, ein gemeinsames Wissen über KI zu erreichen sowie ethische Fragestellungen berücksichtigen zu können, hat die Expertengruppe des Europäischen Parlaments diese Definition um bestimmte Aspekte der KI als wissenschaftliche Disziplin und als Technologie zu klären. Das Ziel dabei ist es, Missverständnisse zu vermeiden, ein gemeinsames Grundverständnis von KI zu schaffen, das auch von Nicht-KI-Experten gewinnbringend genutzt werden kann, und nützliche Details bereitzustellen, die in Diskussionen sowohl über die ethischen Richtlinien für KI als auch über die Empfehlungen für KI-Politik verwendet werden können (High-Level Expert Group on Artificial Intelligence, 2019, S. 6).

Generative KIGenerative KI, Definition ist ein Bereich der künstlichen Intelligenz, der darauf abzielt, neue Daten oder Inhalte zu erzeugen. Generative KI ermöglicht es somit Anwendungssystemen, hochwertige digitale Artefakte zu erstellen, wie beispielsweise Videos, Erzählungen, Trainingsdaten und sogar Designs und Schaltpläne. Diese KI-Systeme nutzen Deep-Learning-Modelle, insbesondere Generative Adversarial NetworksGenerative Adversarial Network (GANs) oder Transformer-Architekturen, um Inhalte wie Texte, Bilder oder sogar Musik zu erzeugen, die menschengemachten Inhalten ähneln. Sie sind darauf trainiert, auf eine Vielzahl von Eingabedaten oder »Prompts« wie Fragen, Anweisungen oder Sprachbefehle zu reagieren und dementsprechende Ausgaben zu generieren (Lim et al. 2023). Mit dem Aufkommen von ChatGPTChatGPT im Jahr 2022 hat auch der Begriff der generativen KI sehr schnelle Verbreitung gefunden. Große, vortrainierte Sprachmodelle (Large Language ModelLarge Language Models, wie z. B. GPT-3.5 oder GPT-4), auch als Generative Pre-trained Transformer Models bezeichnet, dienen hierbei als BasismodellBasismodell für den Textgenerator ChatGPT. Es gibt eine Reihe von KI-Techniken, die für generative KI eingesetzt werden, aber in letzter Zeit sind vor allem diese Basismodelle in den Vordergrund gerückt.

Die KI-Innovationen beschleunigen sich im Allgemeinen und schaffen zahlreiche Anwendungsfälle für generative KI in verschiedenen Branchen. Die neueste jährliche Umfrage des McKinsey Global Instituts (Chiu et al., 2023) zum aktuellen Stand der KI bestätigt das explosive Wachstum von generativen KI-Tools. Weniger als ein Jahr nachdem viele dieser Tools eingeführt wurden, geben ein Drittel der befragten Unternehmen an, dass ihre Organisationen generative KI regelmäßig in mindestens einem Geschäftsbereich einsetzen. Die erwarteten Auswirkungen durch generative KI werden als Disruption wahrgenommen und die Befragten prognostizieren bedeutende Veränderungen in ihren Belegschaften, wie neue Anforderungen an Kompetenzprofile (Chiu et al., 2023). Aufgrund der disruptiven Entwicklungen soll zunächst auf die großen Linien industrieller Revolutionen eingegangen werden, um die generative KI als Technologiesprung einzuordnen.

1.2 Industrielle Revolutionen

Die industriellen RevolutionenIndustrielle Revolution bezeichnen Phasen des grundlegenden wirtschaftlichen und technologischen Wandels. Im Folgenden ein Überblick:

Abb. 1.1:

Industrielle Revolutionen (Quelle: Sellin, 2021)

Erste industrielle Revolution (Ende des 18. bis Anfang des 19. Jahrhunderts): Schwerpunktmäßig in England. Einführung von mechanisierten Produktionsverfahren, die Wasserkraft und Dampfmaschinen nutzten.

Zweite industrielle Revolution (Ende des 19. bis Anfang des 20. Jahrhunderts): Elektrizität und Massenproduktion wurden großflächig eingeführt. Beispiele sind Fließbandarbeit und die Elektrifizierung von Fabriken.

Dritte industrielle Revolution (etwa ab den 2000er- bzw. auch schon früher in den 1970er-Jahren): Kennzeichnet die AutomatisierungAutomatisierung von Produktionsprozessen und den Einsatz von Computern, insbesondere den Personal Computern.

Vierte industrielle Revolution oder Industrie 4.0: Seit ca. 2010 eine Phase, in der intelligente Systeme und das Internet der Dinge (IoT) eine Schlüsselrolle spielen. Hier wird die Verbindung von digitalen Technologien mit physischen Abläufen und Produkten immer nahtloser.

Fünfte industrielle Revolution oder Industrie 5.0: Dies ist ein noch nicht ganz definierter ­Begriff (ab ca. 2020), der den Fokus auf die Mensch-Maschine-Interaktion legt und mehr auf nachhaltige Produktionsprozesse abzielt. Seit 2020 wird in der Teamforschung Technologie als Teammitglied angesehen (»Technology as a Teammate«, vgl. Larson & DeChurch, 2020). Die generative KI ist somit in den Kontext neuer Mensch-Maschine-Interaktionen einzuordnen.

Jede dieser Revolutionen hatte einen enormen Einfluss auf die Wirtschaft, Gesellschaft, Bildung sowie auf die Art und Weise, wie Menschen arbeiten, leben und lernen. Auf die Entwicklungslinien von Mensch-Maschine-Interaktionen gehen wir nachfolgend etwas genauer ein.

1.3 Entwicklungslinien von Mensch-Maschine-Interaktionen

In der Vergangenheit waren die Fortschritte in der Mensch-Technologie-Interaktion vor allem inkrementell. Seit der Erfindung von grafischen Benutzeroberflächen hat sich das grundlegende Modell der Interaktion zwischen Mensch und Computer nicht wesentlich verändert: Der Computer wird als ein Werkzeug betrachtet, an das sich der Mensch anpassen muss (Engelbart, 1973). In jüngerer Zeit hat sich der Forschungsschwerpunkt in diesem Bereich auf mobile und allgegenwärtige Interaktion verlagert, einschließlich »verkörperter Schnittstellen«, sogenannter Embodied Interfaces, (Fishkin et al., 1998) und intelligenter Benutzeroberflächen (Maybury und Wahlster, 1998). Es gibt jedoch immer noch eine klare Trennung zwischen dem Benutzer und dem System.

Die zukünftige Vision ist es, dass sich Computer mehr an den Menschen anpassen werden statt umgekehrt (Raisamo et al., 2019). Verschiedene Technologien und BenutzerschnittstellenSchnittstelle versuchen, die Interaktion natürlicher und effizienter zu gestalten. Das Beispiel ChatGPT zeigt sehr eindrücklich, wie in natürlicher Sprache im Dialog mit dem System gearbeitet werden kann. Das bedeutet daher die Möglichkeit, Systeme durch Sprache, Gesten, Augenbewegungen oder sogar menschliche elektrophysiologische Signale zu steuern. Systeme werden zunehmend in der Lage sein, Daten durch verschiedene Sensoren zu erfassen und dem Benutzer Informationen in Echtzeit durch verschiedene Modalitäten wie visuelle, auditive und haptische Darstellungen bereitzustellen.

Verschiedene Benutzeroberflächen-Paradigmen, wie sie bereits von Rekimoto und Nagao (1995) beschrieben wurden, zeigen die Entwicklungslinien der Mensch-Maschine-InteraktionenMensch-Maschine-Interaktion auf. Die nachfolgende Abbildung 1.2 veranschaulicht einige dieser Paradigmen:

Abb. 1.2:

Entwicklungslinien von Mensch-Maschine-Interaktionen (Quelle: Raisamo et al., 2019)

Menschzentrierte Benutzeroberflächen-Paradigmen umfassen perzeptive Schnittstellen (Turk, 2014), erweiterte Realität (Augmented RealityAugmented Reality (AR); Schmalstieg und Höllerer, 2016), virtuelle Realität (Virtual RealityVirtual Reality (VR); Milgram & Kishino (1994) entwickelten bereits 1994 eine Taxonomie, um Mixed Realities, das Kontinuum zwischen AR und VR, aufzuzeigen und ubiquitäres Computing (Weiser, 1993). Human AugmentationAugmentation, auf Deutsch etwas sperrig zu übersetzen mit »menschliche Erweiterung«, ist ein Paradigma, das auf diesen früheren Paradigmen aufbaut, indem es die Interaktion kombiniert, bei der menschliches Handeln im Mittelpunkt steht. Diese Handlungen werden mit erweiternden Technologien unterstützt, die sich auf die Wahrnehmung, Beeinflussung oder kognitive Verarbeitung der Welt und der Informationen um den Benutzer herum beziehen.

Das Gebiet von Human Augmentation ist noch so jung, dass es bislang kaum allgemein anerkannte Definitionen gibt, obwohl die Anzahl der Artikel und Bücher zum Thema zunimmt. Die Forschergruppe Raisamo et al. (2019, S. 132) definiert Human Augmentation folgendermaßen:

»Human augmentation is an interdisciplinary field that addresses methods, technologies and their applications for enhancing sensing, action and/or cognitive abilities of a human. This is achieved through sensing and actuation technologies, fusion and fission of information, and artificial intelligence (AI) methods.«

Raisamo et al. (2019) differenzieren die menschliche Erweiterung weiterhin in drei zentrale Kategorien der Human Augmentation.

Augmented SensesAugmented Senses: Erweiterte Sinne (auch bekannt als verbesserte Sinne) werden erreicht, indem verfügbare multisensorische Informationen interpretiert und dem Menschen durch ausgewählte menschliche Sinne präsentiert werden. Untergruppen umfassen erweitertes Sehen, Hören, haptische Empfindungen, Geruch und Geschmack.

Augmented ActionAugmented Action: Erweiterte Aktion wird erreicht, indem menschliche Handlungen erfasst und auf Handlungen in lokalen, entfernten oder virtuellen Umgebungen abgebildet werden. Untergruppen umfassen motorische Erweiterung, verstärkte Kraft und Bewegung, Spracheingabe, blickbasierte Steuerungen, Teleoperation, Fernpräsenz und andere.

Augmented CognitionAugmented Cognition: Erweiterte Kognition (auch bekannt als verbesserte Kognition) wird erreicht, indem der kognitive Zustand des Menschen erkannt wird, analytische Werkzeuge zur korrekten Interpretation davon verwendet werden und die Reaktion des Computers an die aktuellen und vorhersehbaren Bedürfnisse des Benutzers angepasst wird (z. B. ­Bereitstellung gespeicherter oder aufgezeichneter Informationen während der natürlichen ­Interaktion).

Im letzten Bereich ist auch das Cognitive ComputingCognitive Computing einzuordnen. Cognitive Computing ­bezieht sich auf Technologien und Verfahren, die darauf abzielen, menschenähnliche Intelligenz in Computersysteme zu integrieren. Das bedeutet, die Systeme sollen in der Lage sein, zu lernen, zu schlussfolgern, zu verstehen und Entscheidungen ähnlich wie ein Mensch zu treffen. Hierfür werden Techniken aus verschiedenen Bereichen wie maschinellem Lernen, natürlicher Sprachverarbeitung und Data-Mining verwendet. Ziel ist es, komplexe Probleme zu lösen und menschliche Interaktionen zu verbessern oder zu erweitern.

ChatGPTChatGPT stellt hierzu einen bedeutenden Meilenstein in der Entwicklung menschenähnlicher KI-Fähigkeiten dar. Seine Fähigkeit, Kontext zu verstehen und kohärente Antworten zu generieren, hat das Potenzial, die Art und Weise, wie wir mit Technologie interagieren, grundlegend zu verändern und den Weg für fortgeschrittene Systeme des Cognitive Computings zu ebnen. Deutlich wird dabei, dass die Zusammenarbeit von Mensch und Maschine künftig eine starke Rolle einnehmen wird. Auf diesen Aspekt gehen wir nachfolgend näher ein.

1.4 Augmentation: Zusammenarbeit Mensch-Maschine

Generative KI bezieht sich auf künstliche Intelligenz-Systeme, die eigenständig neue Inhalte oder Daten erstellen können, seien es Texte, Bilder, Musik oder sogar Code. Statt lediglich vordefinierte Antworten oder Aktionen auszuführen, setzt generative KI Algorithmen und Modelle ein, um kreative und oft komplexe Ausgaben zu erzeugen, die in einem spezifischen Kontext sinnvoll sind. Diese Technologie findet in verschiedenen Bereichen Anwendung, darunter Textgenerierung, Musikkomposition, Spieleentwicklung und viele weitere. Allerdings wirft sie auch ethische Fragen auf, wie etwa im Zusammenhang mit Urheberrecht und der Möglichkeit zur Erstellung gefälschter oder irreführender Informationen. Daher entstehen neue Herausforderungen, die eine gelungene Zusammenarbeit zwischen Mensch und Technologie erfordern und die Möglichkeit bieten, die Stärken beider Seiten zu kombinieren.

In der gängigen Literatur wird KI häufig mit einem zweifachen Zweck konzeptualisiert: einfache Jobs oder Routineaufgaben von Menschen zu übernehmen (häufig als »Automatisierung, Sub­stitution« bezeichnet) und Menschen bei komplexeren Aufgaben zu unterstützen (Zusammenarbeit in Form von »Augmentation«, »Augmentierung« der Arbeit (Einola & Khoreva, 2023). Die AugmentationAugmentation stellt somit ein neues Paradigma in der Nutzung von Computern dar. Sie führt zu einer veränderten Sicht auf die AutomatisierungAutomatisierung von der Bedrohung hin zur Chance (Davenport & Kirby, 2016). Anstelle der Substitution, die lange Zeit im Vordergrund der Diskussion stand (Frey & Osborne, 2013), soll unter dem Begriff der Augmentation eine verstärkte Thematisierung des Zusammenwirkens und der Ergänzung von Mensch und Maschine bei der Erfüllung von Aufgaben stattfinden (Davenport & Kirby, 2016). Bereits vor einigen Jahren haben Davenport und Kirby (2016) die Aufmerksamkeit auf die gegenseitige Unterstützung von Mensch und Maschinen bei der Erfüllung von Aufgaben gelegt und diese als Augmentation bezeichnet. Nach Jarrahi (2018) kann die Augmentation als »Mensch-KI-Symbiose« verstanden werden, die gut gestaltet zu einer Steigerung der menschlichen und maschinellen Leistungen führen kann: »[A] ugmentation can be understood as a ›human-AI symbiosis‹, meaning that interactions ­between humans and AI can make both parties smarter over time« (S. 583).

Abb. 1.3:

Augmentation: Leitbild für Mensch-Maschine-Interaktionen (Quelle: eigene Darstellung)

Dieser Paradigmenwechsel in der Mensch-Maschine-InteraktionMensch-Maschine-Interaktion ist mit einer Neugestaltung der Aufgabenverteilung zwischen Mensch und Maschine verbunden. Bisher erfolgte die Zuweisung nach dem oft kritisierten ResteprinzipLeftover-Prinzip (»Leftover-Principle«) (Wesche & Sonderegger, 2019). Demzufolge wird alles, was automatisiert werden kann, früher oder später auch tatsächlich automatisiert. Infolgedessen bleiben für die Menschen die Aufgaben bestehen, die nicht automatisiert werden können oder deren Automatisierung unwirtschaftlich erscheint (Hancock, 2014).

Gegenwärtig ist bei der Zusammenarbeit von Mensch und Maschinen ein Wandel hin zum kompensatorischen Prinzip feststellbar (Davenport & Kirby, 2016; Meier et al., 2021; Wesche & Sonderegger, 2019). Dem Prinzip folgend werden Stärken und Schwächen von Menschen und smarten Maschinen erfasst und die Aufgaben basierend auf diesen Erkenntnissen verteilt (­Wesche & Sonderegger, 2019). Insbesondere die Entwicklungen im Bereich der KI treiben diesen Prozess mit hoher Geschwindigkeit voran (Miller, 2018).

Die beschriebenen Veränderungen verdeutlichen, dass mit Augmentation ein Paradigmenwechsel in der Mensch-Computer-InteraktionMensch-Computer-Interaktion einhergeht, der zu neuen Formen der Zusammenarbeit mit KI führt, wie in der nachfolgenden Abbildung 1.4 dargestellt (Wesche & Sonderegger, 2019, S. 197):

Abb. 1.4:

Neue Formen der Zusammenarbeit mit KI (Quelle: eigene Darstellung in Anlehnung an Wesche & Sonderegger, 2019)

Die empirischen Befunde von Einola & Khoreva (2023) in ihrer Fallstudie zeigen auf, dass Augmentation und Automatisierung in einem »Workplace Ecosystem« (Einola & Khoreva, 2023, S. 118) u. U. nicht sauber voneinander getrennt werden können, zumindest nicht in einer wissensintensiven Organisation, wie im untersuchten Fallunternehmen. Die Forschungsgruppe betont vielmehr die grundsätzlich wechselseitige Beziehung zwischen Automatisierung und Augmentation, der das Management eine ausgewogene Aufmerksamkeit widmen sollte. Eine einfache Automatisierungslösung könnte sonst iterative oder integrierte Ansätze von Automatisierung und Augmentierung sowie Mitarbeiterzeit stärker benötigen als zunächst angenommen. Sowohl Automatisierung als auch Augmentation sollten im Fokus stehen und denselben Stellenwert im Management und bei Mitarbeitenden haben. Anderenfalls besteht die Gefahr, technologisch fortgeschrittene Frontoffice-Augmentierungslösungen zu überschätzen, ohne die praktischen Aspekte zu sehen, die bei der Durchführung von langen, aber ebenso wichtigen, automatisierungsbezogenen Backoffice-Projekten anfallen (Einola & Khoreva, 2023). Automatisierung und Augmentation sind folglich untrennbare Teile desselben »Bildes«, das notwendig ist, um das Unternehmen in seinem langfristigen KI-Implementierungsprozess voranzubringen (ebenda, S. 129).

Ein integrierter Ansatz zum strategischen Management einer vielfältigen Gruppe von internen und externen Mitarbeitern hat zur Idee eines Arbeitsplatz-Ökosystems geführt, wie es Altman et al. (2021) bereits grundgelegt haben. Das Konzept des »Arbeitsplatz-Ökosystems«Ökosystem erkennt an, dass jede Komponente (physische Umgebungen, kulturelle Elemente, Führung, Gesundheit und Wohlbefinden, Lernmöglichkeiten etc.) mit den anderen interagiert. Zum Beispiel können die physische Umgebung und technologische Werkzeuge die kulturellen Elemente ­beeinflussen und umgekehrt. Ebenso können Führungsstile Prozesse und Protokolle prägen.

In der heutigen Zeit, in der flexible Arbeitsmodelle wie die Arbeit aus dem Homeoffice immer häufiger werden, entwickelt sich das Konzept eines Arbeitsplatz-Ökosystems weiter. Es geht nicht mehr nur um den physischen Büroplatz, sondern auch darum, ein Ökosystem zu schaffen, das Mitarbeiter überall unterstützt, wo sie sich befinden. In diesem Ökosystem nimmt die KI immer mehr ihren Platz ein für eine Augmentierung der Arbeit. Wir möchten in diesem Buch die facettenreiche Thematik – Zukunft Arbeit, Lernen, Leben in einer von KI geprägten Welt – aus diversen Blickwinkeln beleuchten.

1.5 Struktur und Aufbau des Buches

Wir untersuchen das neuartige Phänomen der generativen KI systematisch in vier klar definierten Bereichen. Im Bereich I werden zunächst wesentliche Grundlagen gelegt: Die Funktionsweise der generativen KI (Beitrag 2 von Siegfried Handschuh, Universität St.Gallen) wird erklärt, es wird der Frage nachgegangen, wie kreativ eigentlich die generative KI ist (Beitrag 3 von Gerhard Paass und Dirk Hecker, Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS in Sankt Augustin), und es wird die Bedeutung von hybrider Intelligenz, dem Zusammenspiel von menschlicher und maschineller Intelligenz (Beitrag 4 von Sabine Seufert und Christoph Meier, Universität St.Gallen), näher untersucht.

Im Bereich II sind Beiträge angeordnet, die das Management und die Nutzbarmachung generativer KI in den Vordergrund rücken. Auf die Managementperspektive geht Beitrag 5 (Siegfried Handschuh und Christoph Lechner von der Universität St.Gallen) ein. Die Personal- und Kompetenzentwicklung für generative KI thematisieren Sabine Seufert, Judith Spirgi und Christoph Meier (Universität St.Gallen) im Beitrag 6. Die Zusammenarbeit mit generativer KI in Innovationsteams zeigt das Autorenteam Sebastian G. Bouschery, Vera Blazevic und Frank T. Piller (RWTH Aachen) in Beitrag 7.

Während wir die Möglichkeiten und Herausforderungen, die KI bietet, genauer untersuchen, ist es entscheidend, dass wir uns die ethischen, rechtlichen und gesellschaftlichen Implikationen dieser sich schnell entwickelnden Technologie bewusst machen und nach Lösungen suchen, um die Risiken und Gefahren für eine menschenzentrierte KI einzudämmen. Der Bereich III widmet sich daher diesen übergreifenden Themen: Im Beitrag 8 stellen die Schweizer Patrick Zenhäusern, Stephan Vaterlaus (beide von Polynomics in Olten) und Katharina Degen (AMOSA: Arbeitsmarktbeobachtung in Zürich) den derzeitigen Stand arbeitsökonomischer Auswirkungen dar. Auf »Zukunft Bildung: Auswirkungen auf Bildungssysteme« geht Sabine Seufert (Universität St.Gallen) im Beitrag 9 ein. Ein zentrales Fundament schaffen Oliver Bendel (Hochschule für Wirtschaft FHNW) für die ethische Perspektive (Beitrag 10) und Sebastian Straub von der VDI/VDE Innovation + Technik GmbH für die rechtliche Perspektive (Beitrag 11).

Im Bereich IV sind ausgewählte Anwendungsfälle dargestellt, die die generative KI als Basismodelle verwenden. Der Beitrag 12 »Hochschulbildung: KI-basiertes Forschen und Schreiben«, verfasst von Sabine Seufert, Michael Burkhard, Reto Gubelmann, Christina Niklaus und Siegfried Handschuh von der Universität St. Gallen, stellt ein Projekt vor, das sich auf den Einsatz künstlicher Intelligenz in der Hochschulbildung konzentriert. Im Anschluss daran beleuchtet Beitrag 13 »Generative KI in der Lehrerbildung: ›Teacher Copilot‹ als Assistenz-/Trainingssystem für Lehrkräfte« von Sabine Seufert und Stefan Sonderegger, ebenfalls von der Universität St. Gallen, ein weiteres Projekt im akademischen Bereich.

In den Beiträgen 14 und 15 werden zwei Start-ups vorgestellt, die sich durch den Einsatz innovativer, auf großen Sprachmodellen basierender Unternehmenslösungen auszeichnen. Beitrag 14, präsentiert von Dorian Selz, beleuchtet das Schweizer Unternehmen SquirroGPT, das eine zukunftsweisende Unternehmenslösung anbietet. Der Beitrag 15 widmet sich dem deutschen Start-up Legal OS, vorgestellt von Charlotte Kufus in Zusammenarbeit mit Stéphanie Aubry von der Universität St. Gallen. Legal OS bietet eine spezialisierte Anwendung für rechtliche Fragestellungen in Unternehmen, wodurch es eine Brücke zwischen technologischer Innovation und juristischer Expertise schlägt. Abschließend geht Maarten K. Pieters, Mitgründer von TheCoCreators, mit dem letzten Beitrag auf die Entwicklung von Vorgehensweisen für den Umgang mit generativer KI im Sinne von Co-Creation ein.

In diesem Handbuch werden die Grundlagen, Auswirkungen und Anwendungen der generativen KI ausführlich erläutert. Es dient als umfassender Leitfaden sowohl für Einsteiger als auch für Fortgeschrittene in diesem dynamischen Feld. Da die Welt der generativen KI sich rasant weiterentwickelt, sind regelmäßige Updates unerlässlich. Aus diesem Grund ist geplant, dieses Handbuch kontinuierlich zu aktualisieren, um sicherzustellen, dass die Leserinnen und Leser stets Zugang zu den aktuellen Informationen und Erkenntnissen haben. Damit soll es eine essenzielle Quelle für all jene sein, die sich nicht nur mit den Möglichkeiten und Herausforderungen der generativen KI auseinandersetzen, sondern auch aktiv an deren nutzbringender Gestaltung und verantwortungsvoller Implementierung mitwirken möchten.

Literatur

Altman, E. J., Schwartz, J., Kiron, D., Jones, R. & Kearns-Manolatos, D. (2021). Workforce Ecosystems: A New Strategic Approach to the Future of Work. MIT Sloan Management Review und Deloitte. https://sloanreview.mit.edu/projects/workforce-ecosystems-a-new-strategic-approach-to-the-future-of-work/

Bellman, R. (1978). An introduction to artificial intelligence: can computers think? Boyd & Fraser Publishing Company.

Chui, M., Yee, L., Hall, B., Singla, A. & Sukharevsky, A. (2023). The state of AI in 2023: Generative AI’s breakout year. McKinsey.

Davenport, T. H. & Kirby, J. (2016). Only humans need apply: Winners and losers in the age of smart machines (1. Aufl.). Harper Business.

De Laat, M., Joksimovic, S. & Ifenthaler, D. (2020). Artificial intelligence, real-time feedback and workplace learning analytics to support in situ complex problem-solving: a commentary. International Journal of Information and Learning Technology, 37(5), 267–277. https://doi.org/10.1108/IJILT-03-2020-0026

Einola, K. & Khoreva, V. (2023) Best friend or broken tool? Exploring the co-existence of humans and artificial intelligence in the workplace ecosystem. Human Resource Management, 62(1), 117-135. https://doi.org/10.1002/hrm.22147

Engelbart, D. C. (1973). Design considerations for knowledge workshop terminals. In Proceedings of the June 4–8, 1973, National Computer Conference and Exposition (S. 221–227). https://doi.org/10.1145/1499586.1499654 European Commission (2020). On Artificial Intelligence—A European Approach to Excellence and Trust [White paper]. https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf

Fishkin, K., Moran, T. & Harrison, B. (1998). Embodied user interfaces: towards invisible user interfaces. In Proceedings of the Seventh Working Conference on Engineering for Human-Computer Interaction (S. 1–18). Kluwer.

Frey, C. B. & Osborne, M. (2013). The future of employment [Working Paper]. Oxford Martin Programme on Technology and Employment, Oxford Martin School. https://www.oxfordmartin.ox.ac.uk/downloads/academic/future-of-employment.pdf

Gottfredson, L. S. (1997). Mainstream science on intelligence: an editorial with 52 signatories, history, and bibliography. Intelligence, 24(1), 13–23. https://doi.org/10.1016/S0160-2896(97)90011-8

High-Level Expert Group on Artificial Intelligence. (2019). A Definition of AI: Main Capabilities and Disciplines. European Commission. https://www.aepd.es/sites/default/files/2019-12/ai-definition. pdf

Jarrahi, M. H. (2018). Artificial intelligence and the future of work: human-ai symbiosis in organizational decision making. Business Horizons, 61(4), 577–586. https://doi.org/10.1016/j.bushor.2018.03.007

Larson, L. & DeChurch, L. A. (2020). Leading teams in the digital age: Four perspectives on technology and what they mean for leading teams. The Leadership Quarterly, 31(1), 101377. https://doi.org/10.1016/j.leaqua.2019.101377

Lim, W. M., Gunasekara, A., Pallant, J. L., Pallant, J. I. & Pechenkina, E. (2023). Generative AI and the future of education: Ragnarök or reformation? A paradoxical perspective from management educators. The International Journal of Management Education, 21(2), 100790.

Maybury, M. T. & Wahlster, W. (1998). Readings in Intelligent User Interfaces. Morgan Kaufmann ­Publishers.

Meier, C., Seufert, S., Guggemos, J. & Spirgi, J. (2021). Learning organizations in the age of smart machines: Fusion skills, augmentation strategies and the role of HRD professionals. In D. Ifenthaler, S. Hofhues, M. Egloffstein & C. Helbig (Hrsg.), Digital transformation of learning organizations (S. 77–94). Springer International Publishing. https://doi.org/10.1007/978-3-030-55878-9_5

Miao, F., Holmes, W., Huang, W. & Zhang, H. (2021): AI and education. Guidance for policy-­makers. UNESCO. https://unesdoc.unesco.org/ark:/48223/pf0000376709

Milgram, P. & Kishino, F. (1994). A taxonomy of mixed reality visual displays. IEICE Transactions on Information Systems, 77(12), 1321–1329.

Miller, S. M. (2018). AI: Augmentation, more so than automation. Asian Management Insights, 5(1), 1-20. https://ink.library.smu.edu.sg/ami/83

Raisamo, R., Rakkolainen, I., Majaranta, P., Salminen, K., Rantala, J. & Farooq, A. (2019). Human augmentation: Past, present and future. International Journal of Human-Computer Studies, 131, 131–143. https://doi.org/10.1016/j.ijhcs.2019.05.008

Rekimoto, J. & Nagao, K. (1995). The world through the computer: computer augmented interaction with real world environments. In Proceedings of UIST’95 Conference, S. 29–36. ACM.

SBFI. (2019). Herausforderungen der künstlichen Intelligenz. Bericht der interdepartementalen Arbeitsgruppe »Künstliche Intelligenz« an den Bundesrat. Eidgenössisches Departement für Wirtschaft, Bildung und Forschung. https://www.sbfi.admin.ch/dam/sbfi/de/dokumente/2019/12/bericht_idag_ki.pdf.download.pdf/bericht_idag_ki_d.pdf

Schmalstieg, D. & Höllerer, T. (2016). Augmented Reality: Principles and Practice. Addison-Wesley Professional.

Sellin, R. (2021). Mensch und Roboter im Zusammenspiel. Computerworld 25.11.2021. https://www.computerworld.ch/technik/industrie-4-0/mensch-roboter-im-zusammenspiel-2706774.html#:~:text=Bei%20Industrie%204.0 %20standen%20Methoden,Menschen%20und%20Robotern%20ins%20Haus

Shiohira, K. (2021). Understanding the impact of artificial intelligence on skills development. UNESCO International Centre for Technical and Vocational Education and Training. https://unesdoc.unesco.org/ark:/48223/pf0000376162.locale=en

Turk, M. (2014). Multimodal interaction: A review. Pattern Recognition Letters, 36(15), 189–195.

Weiser, M. (1993). Some computer science issues in ubiquitous computing. Communications of the ACM, 36(7), 75–84.

Wesche, J. S. & Sonderegger, A. (2019). When computers take the lead: The automation of leadership. Computers in Human Behavior, 101, 197–209. https://doi.org/10.1016/j.chb.2019.07.027

World Economic Forum (2023). Future of Jobs Report 2023. https://www.weforum.org/reports/the-future-of-jobs-report-2023/

2 Große Sprachmodelle

Siegfried Handschuh

2.1 Einleitung

Große Sprachmodelle (engl.: Large Language ModelsLarge Language Model, LLMs) sind derzeit die Flaggschiffe der generativen künstlichen Intelligenz, und insbesondere mit dem Erscheinen von ChatGPT am 30. November 2022 (cf. OpenAI, 2022a) hat sich eine soziotechnische Zeitenwende eingeleitet. Eine Zeitenwende, wie wir sie nur alle 30–40 Jahre erleben und wie wir sie zuletzt mit der Einführung des World Wide Web gesehen haben. Es ist absehbar, dass generative KI im Allgemeinen und Sprachmodelle im Besonderen die Art und Weise verändern, wie wir forschen, lernen, kommunizieren und wie wir arbeiten, kurz, wie wir leben.

In unserer Forschung beschäftigen wir uns seit über 20 Jahren mit der Semantik von Wörtern. Anfangs verwendeten wir formale Systeme, d. h. grammatikalische Parser, Ontologien und wörterbuchähnliche Strukturen wie WordNet (Miller, 1995). Dieser Ansatz funktionierte, wurde jedoch immer umfangreicher, je komplexer die Sätze waren. Andererseits versagten diese Parser, wenn sich die Sprachen nicht an grammatikalische Regeln hielten oder Neologismen verwendeten, Phänomene, die wir oft in sozialen Netzwerken erleben.

In den vergangenen 14 Jahren hat sich in unserer Forschung und dann auch innerhalb der wissenschaftlichen Gemeinschaft eine verstärkte Hinwendung zu statistischen Modellen vollzogen, insbesondere unter Einsatz der sogenannten VerteilungssemantikVerteilungssemantik (engl.: Distributional Semantics) (Baroni und Lenci, 2010). Diese Methodik entwickelt und untersucht die Charakteristika sprachlicher Elemente basierend auf ihren Verteilungseigenschaften innerhalb umfangreicher Sprachdatensätze. Es hat sich gezeigt, dass sich mit dieser Methodik die Phänomene der Semantik deutlich präziser beschreiben lassen. In dieser Analogie können Wörter ­metaphorisch als Moleküle betrachtet werden, die mit einer bestimmten Wahrscheinlichkeit interagieren. Ähnlich verhält es sich mit Metaphern und Idiomen, die als Muster verstanden werden können, die sich im Laufe der Zeit im Sprachgebrauch herausbilden.

In der Machine-Learning-Community hat sich mit den Word EmbeddingsWord Embedding (Mikolov et al., 2013) ein mit der Verteilungssemantik stark verwandter Ansatz durchgesetzt, der wiederum die Basis für weitere Entwicklungen im Bereich des Sprachverstehens bildete. Eine entscheidende Entwicklung hier war das Transformer-Modell von Google, bekannt durch das Paper »Attention Is All You Need« (Vaswani et al., 2017), das Word-Embeddings mit Attention-Mechanismen kombiniert. Während die Word-Embeddings speziell das Semantikproblem der Sprache adressieren, lösen die Attention-Mechanismen weitere Schlüsselprobleme der ComputerlinguistikComputerlinguistik, wie beispielsweise Koreferenzauflösung, Wortsinn-Desambiguierung oder das Verarbeiten elliptischer Konstruktionen.

Generative Pre-trained Transformer 1 (GPT-1GPT-1) war 2018 das erste der großen Sprachmodelle von OpenAI (Radford et al., 2018), nachdem Google ein Jahr zuvor die Transformer-Architektur erfunden hatte. Im Gegensatz zum Transformer-Modell in seiner ursprünglichen Form, das sowohl Encoder als auch Decoder umfasst, konzentriert sich GPT auf die Generierung von Text und verwendet daher nur den Decoder-Teil der Transformer-Architektur. GPT-2GPT-2 wurde 2019 (Radford et al., 2019) veröffentlicht und GPT-3GPT-3 folgte 2020 (Brown et al., 2020). Während ­GPT-1 und GPT-2 bereits in der wissenschaftlichen Community Beachtung fanden, erzielte GPT-3 aufgrund seiner emergenten Fähigkeiten deutlich mehr Aufmerksamkeit. Insbesondere durch die Arbeiten von OpenAI beim FeintuningFeintuning von GPT-3 in Form von Instruct-GPT (Ouyang et al., 2022), bei welchem dem System beigebracht wurde, menschlich formulierte Anweisungen zu befolgen, wurde ein wichtiger Meilenstein erreicht auf dem Weg zu ChatGPT.

In den letzten Jahren haben große Sprachmodelle für Aufsehen in der KI-Forschung gesorgt. Diese Modelle zeigen beeindruckende Fähigkeiten in der Verarbeitung natürlicher Sprache und stellen einen wichtigen Fortschritt auf dem Gebiet der künstlichen Intelligenz dar (Bommasani et al., 2022). Allerdings weisen LLMs auch bestimmte Einschränkungen und Risiken auf, die in der wissenschaftlichen Diskussion kontrovers betrachtet werden. In diesem Kapitel soll ein Überblick über den aktuellen Forschungsstand zu LLMs gegeben und diskutiert werden, welche Herausforderungen bestehen und wie die weitere Entwicklung aussehen könnte.

2.2 Architektur großer Sprachmodelle

In den vergangenen zwei Dekaden hat sich die linguistische Forschung zunehmend auf statistische Methoden der Semantikanalyse fokussiert (Baroni und Lenci, 2010). Im Gegensatz zu früheren Ansätzen, welche Sprache als regelbasiertes System modellierten, hat sich gezeigt, dass sich linguistische Phänomene effektiver mit probabilistischen Modellen abbilden lassen, bei denen Wörter (streng genommen sind es Subwörter bzw. Subtokens, aber wir sprechen hier der Einfachheit halber von Wörtern) als Einheiten betrachtet werden, die sich mit einer bestimmten Wahrscheinlichkeit verbinden. Über die Analyse von Co-Occurrence-Mustern, also dem gemeinsamen Auftreten von Wörtern in sprachlichen Kontexten, können semantische Strukturen modelliert werden.

Diese Co-Occurrence-ModelleCo-Occurrence-Modell nennen wir Distributional-Semantik (Baroni und Lenci, 2010), und die wissenschaftliche Community hat begonnen, im großen Stil mit solchen Vektorräumen zu arbeiten. Wenn ein Wortschatz beispielsweise 25.000 Wörter umfasst, hat dieser Vektorraum 25.000 Dimensionen. Wir Menschen sind auf drei Dimensionen beschränkt, weshalb wir uns 25.000 Dimensionen kaum vorstellen können. Oft werden auch komprimierte Vektorräume mit reduzierten Dimensionen erstellt; eine solche Form sind Word EmbeddingWord Embeddings (Mikolov et al., 2013; Pennington et al., 2014), die in der Regel mit etwa 300 Dimensionen arbeiten.

Abb. 2.1:

Ähnlichkeiten zwischen Wörtern im Vektorraum (Quelle: eigene Abbildung, vgl. Mikolov et al., 2013)

Es zeigt sich, dass dieser Vektorraum Ähnlichkeiten zwischen Wörtern gut darstellen kann, zum Beispiel dass »König« und »Königin« ähnliche Wörter sind. Ein solcher Vektorraum kann auch Assoziationen gut abbilden, zum Beispiel dass »König« mit »Schloss« und »Krönung« verbunden ist und dass »Charles« ein König ist. Mit diesem Modell können bestehende sprachliche Phänomene hervorragend dargestellt werden. Dies ermöglicht eine Verallgemeinerung unseres Wissens über Sprache. Dabei werden verschiedene Arten von sprachlichen Phänomenen generalisiert, einschließlich des Weltwissens, des grammatikalischen Wissens und des Wissens über Metaphern. Es ist jedoch zu beachten, dass eine solche Generalisierung nur dann stattfindet, wenn diese Metaphern in den Daten in ausreichender Menge vorhanden sind.

Abb. 2.2:

Wortassoziationen und Wortähnlichkeiten im Vektorraummodell (Quelle: Pennington et al., 2014)

Abb. 2.3:

Darstellung grammatikalischer Strukturen, Superlative, im Vektorraummodell (Quelle: Pennington et al., 2014)

Aktuelle Forschung im Bereich der ComputerlinguistikComputerlinguistik setzt vermehrt vektorbasierte Repräsentationen von Subwörtern ein, bei denen jedes Wort durch einen hochdimensionalen Vektor repräsentiert wird, der seine Bedeutung codiert (Mikolov et al., 2013). Die Dimensionalität dieser Vektorräume ist dabei sehr hoch, da sie der Anzahl der verschiedenen Wörter entspricht. Jedoch hat sich gezeigt, dass sich die Komplexität durch Reduktion auf einige Hundert Dimensionen reduzieren lässt, ohne signifikanten Informationsverlust bezüglich linguistischer Phänomene. Neuronale Sprachmodelle wie ELMoELMo (Peters et al., 2018), BERTBERT (Devlin et al., 2019) oder GPT-3GPT-3 (Brown et al., 2020) nutzen derartige vektorbasierte Wortrepräsentationen als Grundlage.

Insbesondere für Generalisierung über sprachliches Wissen ist eine große Menge an TrainingsdatenTrainingsdaten erforderlich. So wurden für das Training von GPT-3GPT-3 etwa 500 Milliarden Wörter (eigentlich TokensToken) aus diversen Quellen wie Websites, Literatur, Wikipedia oder Fachtexten verwendet (Brown et al., 2020) – eine Datenmenge, die schätzungsweise 5.000-mal größer ist als die Textmenge, die ein Mensch im Laufe seines Lebens lesen kann. Die Rohtexte werden dabei mittels neuronaler Netze in einen hochdimensionalen Vektorraum transformiert, wobei die Anzahl der Parameter bei GPT-3 etwa 175 Milliarden beträgt. Man kann feststellen, dass dabei die Anzahl der Parameter etwa ein Drittel des Datenvolumens beträgt, d. h., die Speicherfähigkeit des Netzes liegt deutlich unter der Trainingsmenge. Daher muss über die gelesenen Texte generalisiert werden. Auch wird die Quellenangabe der Rohtexte nicht im Netzwerk gespeichert und ist daher auch nicht mehr rekonstruierbar.

Nun erfolgt das Training auf einer GPUGPU. Eine GPU ist ein Prozessor, der ursprünglich für Computerspiele entwickelt wurde, da er in der Lage ist, schnelle lineare Algebra-Berechnungen durchzuführen, die für Computergrafik benötigt werden. Es hat sich herausgestellt, dass sich diese Art von Berechnungen auch gut für die Vektorraummodelle der Sprachmodelle eignet.

Würde man das Training für GPT-3 mit einer Standard-GPU erbringen wollen, einer NVIDIA Tesla V100 GPU, würde es nach einer Schätzung von LambdaLabs (vgl. Chuan, 2020) 355 Jahre dauern. Dies veranschaulicht die enorme Rechenkapazität, die für solche Modelle erforderlich ist. Selbst mit zwei NVIDIA DGX-2 (je 16 Tesla V100 GPUs), die uns an der Universität St.Gallen zur Verfügung stehen, würden wir geschätzt 11 Jahre benötigen. Bei OpenAI soll die Berechnung auf 520 GPUs gelaufen sein und wurde in etwa 250 Tagen abgeschlossen. Die Schätzungen für die Trainingskosten von GPT-3 liegen zwischen 1,8 Millionen (vgl. Stanford AI Index, 2023) und 4,6 Millionen US-Dollar (vgl. Chuan, 2020). Nicht nur für die Berechnung, sondern auch um GPT auszuführen, ist mindestens eine Grafikkarte erforderlich. Für den Einsatz von GPT-3.5GPT-3.5 – also für die Bearbeitung von Anfragen, nicht für das Training – sollen 600 GB an Speicher sowie eine dedizierte GPU mit 250 GB VRAM erforderlich sein. Daher ist sowohl die Entwicklung eines Sprachmodells wie GPT als auch dessen permanente Nutzung mit finanziellen Aufwendungen verbunden.

Laut einem Bericht der Nachrichtenwebsite Semafor (Albergotti, 2023) verfügt GPT-4GPT-4, das Nachfolgemodell von GPT-3, das am 14. März 2023 vorgestellt wurde, über eine Billion Parameter – etwa sechs Mal mehr als sein Vorgänger GPT-3. Andere Quellen gehen jedoch davon aus, dass GPT-4 aus acht Modellen mit jeweils 220 Milliarden Parametern besteht, was ­zusammengenommen rund 1,76 Billionen Parameter ergeben würde. Sam Altman, CEO von OpenAI, dem Unternehmen hinter GPT-4, sagte, dass die Kosten für das Training von GPT-4 mehr als 100 ­Millionen Dollar (Knight, 2023) betragen sollen. Die genaue Anzahl der Parameter von GPT- 4 hat OpenAI bislang nicht offiziell bestätigt

Zusammenfassend lässt sich sagen, dass das Training der Modelle unter hohem Rechenaufwand auf leistungsfähiger GPU-Hardware erfolgt. Für die beiden GPT-Modelle wurden über einen Zeitraum von mehreren Monaten hinweg Hunderte von Grafikprozessoren parallel eingesetzt, was Kosten in Millionenhöhe verursachte.

2.3 Die Vorhersage des nächsten Wortes

Große Sprachmodelle zeigen die bemerkenswerte Fähigkeit, komplexe Fragen zu beantworten, obwohl sie ursprünglich nicht für diese Aufgabe entwickelt wurden. Vielmehr handelt es sich um generative KI-Systeme, deren Ziel die Produktion von fortlaufendem Text auf Basis gegebener Texteingaben, sogenannter Prompts, ist (Reynolds & McDonell, 2021; Brown et al., 2020)

Der grundlegende Algorithmus dieser Systeme ist die sequenzielle Vorhersage des jeweils nächsten Wortes, basierend auf den vorhergehenden Wörtern und dem Kontext (Vaswani et al., 2017). Während des Trainings werden die Modellparameter so optimiert, dass die Vorhersagewahrscheinlichkeit korrekter Fortsetzungen maximiert wird. Beispielsweise könnte nach dem Prompt »Fieber wird mit einem ____ gemessen« mit hoher Wahrscheinlichkeit das Wort »Thermometer« vorhergesagt werden.

Bei ambiguen Fällen, wie »Ich fahre mit dem ____ ins Büro«, gibt es mehrere mögliche Fortsetzungen wie »Auto« oder »Fahrrad« mit gewissen Wahrscheinlichkeiten. Für den Satzbeginn »Bern ist die _____« wäre »Hauptstadt« eine plausible Ergänzung mit beispielsweise 16 % Vorhersagewahrscheinlichkeit (nach GPT-2), während auch Alternativen wie »beste«, »erste« oder »einzige« möglich sind, wenn auch mit geringerer Wahrscheinlichkeit.

Obwohl die Vorhersage des nächsten Wortes eine einfache Aufgabe darstellt, ermöglicht dies in der Summe, komplexe Phänomene der Sprachproduktion zu modellieren. Die Fähigkeit der Fragebeantwortung emergiert dabei aus dem generationsbasierten Ansatz, da plausibel erscheinende Fortsetzungen eines Dialogs generiert werden. Die intrinsische Komplexität des zugrunde liegenden linguistischen Wissens ergibt sich aus der schieren Menge der Trainingsdaten.

2.4 Emergente Fähigkeiten

Aktuelle Forschungsergebnisse zeigen, dass großskalige Sprachmodelle mit zunehmender Modellgröße emergente FähigkeitenFähigkeiten, emergente (Wei et al., 2022) entwickeln, mit denen die ForscherInnen ursprünglich nicht gerechnet hatten. Manche dieser Fähigkeiten skalieren linear mit der Größe des Modells und der Menge der Trainingsdaten, während andere plötzlich und unerwartet auftreten.

Einige dieser emergenten Fähigkeiten, wie zum Beispiel Textzusammenfassungen zu generieren, wurden nach ihrer Entdeckung gezielt verstärkt und trainiert (Taylor et al., 2022; Ouyang et al., 2022). Des Weiteren konnte beobachtet werden, dass mathematische Fähigkeiten mit der Modellgröße linear ansteigen. Dabei führen Sprachmodelle keine tatsächlichen Berechnungen durch, sondern approximieren mathematische Operationen basierend auf zuvor gesehenen Beispielen. Generell generieren große Sprachmodelle Antworten auf Fragen nicht durch echtes Verständnis, sondern interpolieren neue Texte aus vorherigen Antworten auf ähnliche Fragen.

Abb. 2.4:

Modellgröße und emergente Fähigkeiten der Sprachmodelle (Quelle: Thompson, 2023)

Besonders hervorzuheben sind plötzlich auftretende Fähigkeiten, sogenannte Discontinuous ImprovementsDiscontinuous Improvement, wie sie unter anderem beim Google PaLM Model (Chowdhery et al., 2022) beobachtet wurden. Ab einer bestimmten Modellgröße können Sprachmodelle beispielsweise Abläufe und Prozesse kausal korrekt ordnen, wie etwa die Schritte des Trinkens aus einer Flasche.