Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Unterricht vorbereiten und Schulaufgaben korrigieren mit KI-Tools Datenschutzkonformer Einsatz von KI im Unterricht Zahlreiche Praxisbeispiele für verschiedene Schulformen und -fächer KI als Assistent für Lehrkräfte KI-Modelle wie ChatGPT sind bereits Teil des Schulalltags und werden von vielen Schülerinnen und Schülern regelmäßig genutzt. Dieses Buch zeigt Ihnen, wie Sie als Lehrkraft ebenfalls KI praxisnah, produktiv und datenschutzkonform einsetzen können. Praktischer Einsatz im Schulalltag Die Autoren zeigen Ihnen, wie Sie zielführende Anfragen an die KI stellen und so Unterstützung für verschiedene Einsatzzwecke erhalten: von der inhaltlichen Unterrichtsplanung über Vorschläge zu interaktiven Lehrmethoden bis hin zur Korrektur von Texten und Tipps für die Förderung von Schülerinnen und Schülern. Für alle Schulformen und -fächer Alle Praxisbeispiele sind nach Schulformen und -fächern gegliedert, sodass Sie schnell passende Anregungen für Ihren eigenen Unterricht finden. Darüber hinaus werden zentrale Fragen wie die Vermittlung von KI-Kompetenz als Lernziel, moderne Prüfungsformen im KI-Zeitalter sowie ethische Herausforderungen diskutiert. Aus dem Inhalt: Funktionsweise von KIs wie ChatGPT Strategien für den effektiven Einsatz Unterrichtsvorbereitung Prüfungsvorbereitung und Korrigieren Einsatz von KI im Unterricht Praxisbeispiele für Grundschule, Mittelschule sowie Realschule und Gymnasium Konkrete Beispiele für den Einsatz für verschiedene Fächer: Deutsch Englisch, Spanisch, Französisch Geschichte & Erdkunde Mathematik & Naturwissenschaften Kunst & Musik u.v.m. KI-Kompetenz als Lernziel Prüfungsformen und Hausaufgaben im KI-Zeitalter Rechtliche Aspekte und Datenschutz
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 444
Veröffentlichungsjahr: 2025
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Barbara EngelkeUlrich Engelke
ChatGPT & Co. in der Schule
Modern unterrichten mit KI
Effizient vorbereiten, lehren, prüfen und korrigieren
Bibliografische Information der Deutschen Nationalbibliothek
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über https://portal.dnb.de/opac.htm abrufbar.
ISBN 978-3-7475-0879-4
1. Auflage 2025
www.mitp.de
E-Mail: [email protected]
Telefon: +49 7953 / 7189 - 079
Telefax: +49 7953 / 7189 - 082
© 2025 mitp Verlags GmbH & Co. KG, Augustinusstr. 9a, DE 50226 Frechen
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften.
Dieses E-Book verwendet das EPUB-Format und ist optimiert für die Nutzung mit Apple Books auf dem iPad von Apple. Bei der Verwendung von anderen Readern kann es zu Darstellungsproblemen kommen.
Der Verlag räumt Ihnen mit dem Kauf des E-Books das Recht ein, die Inhalte im Rahmen des geltenden Urheberrechts zu nutzen. Dieses Werk, einschließlich aller seiner Teile, ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Dies gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.
Der Verlag schützt seine E-Books vor Missbrauch des Urheberrechts durch ein digitales Rechtemanagement. Bei Kauf im Webshop des Verlages werden die E-Books mit einem nicht sichtbaren digitalen Wasserzeichen individuell pro Nutzer signiert. Bei Kauf in anderen E-Book-Webshops erfolgt die Signatur durch die Shopbetreiber. Angaben zu diesem DRM finden Sie auf den Seiten der jeweiligen Anbieter.
Lektorat: Janina Vervost
Sprachkorrektorat: Christine Hoffmeister
Covergestaltung: Christian Kalkert
Bildnachweis: © yatcenko / stock.adobe.com
Satz: Petra Kleinwegen
electronic publication: CPI books GmbH, Leck
Einleitung
Was Sie in diesem Buch erwartet
Über die Autoren
1KI, Machine Learning & ChatGPT
1.1Wie funktionieren KI-Chatbots?
1.1.1Überblick über KI und maschinelles Lernen
1.1.2Die Dartmouth-Konferenz und führende Köpfe der AI
1.1.3Kurzer Abriss der KI-Entwicklung bis heute
1.1.4Machine Learning und Deep Learning
1.1.5Sam Altman, OpenAI und ChatGPT
1.1.6Und wie funktionieren KI-Chatbots nun wirklich?
1.2Datenschutz, Urheberrecht und Einschränkungen
1.2.1Datenschutz und KI-Bots
1.2.2Urheberrecht und LLMs
1.2.3Einschränkungen von KI-Chatbots
1.2.4Halluzinieren von KI-Sprachmodellen
1.2.5Sind KI-Suchmaschinen die Zukunft?
1.3Erste Schritte mit ChatGPT
1.3.1Als neuer Nutzer registrieren
1.3.2Erste Schritte des Promptings
1.3.3Kostenlose oder kostenpflichtige Nutzung?
2Richtig prompten – Ein Prozess
2.1Simple Prompts und einfache Erweiterungen
2.2Die wichtigsten zehn Prompting-Parameter
2.2.1Aufgabe, Limitierung und Ausgabeform
2.2.2Das Ziel
2.2.3Der Tonfall
2.2.4Die Rolle
2.2.5Das Publikum
2.2.6Die Terminologie
2.2.7Schlüsselwörter
2.2.8Die Sprache
2.2.9Top 10 der Prompting-Parameter im Überblick
2.3Weitere Prompting-Parameter
2.3.1Kontext
2.3.2Statistik
2.3.3Standpunkte
2.3.4Begründungen
2.3.5Gegenargumente
2.3.6Analogien
2.3.7Expertenurteile
2.3.8Zitate
2.3.9Beispieltexte und Prompt-Rückschluss-Technik
2.3.10Sensible Inhalte
2.4Allgemeine Regeln für bessere Prompts
2.5Was sind Power-Prompts?
2.6Basis-Prompts setzen Rahmen für folgende Anfragen
2.7Rollenspiele mit der KI: »Du bist jetzt mein …«
2.8Temperatur der Ausgabe steuern
2.9Iteratives Prompting, Feedback-Schleifen und Optimierungen
2.10Prompts von ChatGPT verbessern lassen
3ChatGPT als Assistent des Lehrenden
3.1Unterrichtsvorbereitung
3.1.1Jahresplanung und Strukturierung
3.1.2Fächerübergreifende Projekte
3.1.3Binnendifferenzierung
3.1.4Vereinfachen komplizierter Regeln
3.1.5Vereinfachen von Texten – Hilfen für förderungsbedürftige Schüler oder bei schwierigen Inhalten (inklusiver Ansatz)
3.1.6Eilige Unterrichtsvorbereitung
3.1.7Größere Methodenvielfalt
3.2Herausforderungen außerhalb des Unterrichts
3.2.1Artikel für den Jahresbericht der Schule
3.2.2Zwischenmenschliche Probleme
3.2.3Tipps für Disziplinprobleme und Elterngespräche
3.2.4Vorbereitung von Studienfahrten (inkl. Elterninformation)
3.3ChatGPT im Unterricht
3.3.1Kognitive Schulung: Erörtern und Debattieren
3.3.2Die Arbeit mit Bildern
3.3.3Einführung in ChatGPT mit ChatGPT
3.4Prüfungsvorbereitung
3.4.1Allgemeine Prüfungsvorbereitung
3.4.2Prüfungsvorbereitung mit Custom GPTs
3.5Korrigieren mit KI
3.5.1PEER
3.5.2DeepL-Write-Schreibassistent
3.5.3ChatGPT 4o
3.6Weitere digitale Tools für Lehrkräfte
4Einsatz von KI für verschiedene Schularten und Fächer
4.1Grundschule
4.1.1Unterrichtsvorbereitung
4.1.2Unterstützung im Unterricht
4.1.3Nachbereitung (Korrekturen und Prüfungen)
4.1.4Pädagogische Arbeit an den Grundschulen
4.2Mittelschule (ehemals Hauptschule)
4.2.1Unterrichtsvorbereitung
4.2.2Unterstützung im Unterricht
4.2.3Nachbereitung, Korrekturen und Prüfungen
4.2.4Nebenfächer an der Mittelschule
4.2.5Pädagogische Arbeit an den Mittelschulen
4.3Realschulen und Gymnasien
4.3.1Unterrichtsvorbereitung
4.3.2Unterstützung im Unterricht
4.3.3Nachbereitung, Korrekturen und Prüfungen
4.3.4Weitere Fächer an Realschulen und Gymnasien
4.4Pädagogische Arbeit an weiterführenden Schulen
4.4.1Ethnische Heterogenität und Rassismus
4.4.2Bildungsferne Stammfamilien
4.5Verfassungsviertelstunde in Bayern
4.5.1Grundschule
4.5.2Mittelschule
4.5.3Realschule
4.5.4Gymnasium
5Unterrichtsziel: KI-Kompetenz
5.1Wie Jugendliche die Relevanz von KI für sich und die Schule einschätzen
5.2Warum der Umgang mit ChatGPT und anderen KI-Technologien entscheidend ist
5.2.1Die Zukunft (und Gegenwart) des Arbeitsmarkts
5.2.2Fähigkeit zum kritischen Urteil
5.2.3Verbesserung der Lernprozesse
5.2.4Lebenslanges Lernen
5.3Die 4 Ks der Bildung im 21. Jahrhundert
5.4Reformpädagogik und KI – das geht
5.4.1Erfahrungsorientiertes Lernen
5.4.2Neue Rolle der Lehrkraft
5.4.3Kooperatives Lernen
5.4.4Offene Unterrichtsformen
6Datenschutzkonform unterrichten
6.1Die Unsicherheit der Lehrkräfte im Umgang mit KI
6.2Grundprinzipien des Datenschutzes und die DSGVO
6.2.1Was sind personenbezogene Daten?
6.2.2Lehrkräfte und Datenschutz
6.2.3Die sechs Grundprinzipien der DSGVO
6.3Warum Datenschutz im Unterricht mit KI meist gar kein Problem ist
6.4KI-Tools und Plattformen für Lehrkräfte mit Datenschutzversprechen im Faktencheck
6.4.1KI-Tools für Lehrkräfte im Überblick
6.4.2Datenschutzkonformität von KI-Tools für Lehrkräfte
6.4.3ChatGPT und Datenschutz – Welche Version für Lehrkräfte?
6.5Vorschlag für einen DSGVO-konformen KI-Einsatz in Schulen
6.5.1Vermeidung der Eingabe personenbezogener Daten
6.5.2Team-, Enterprise oder Edu-Version von ChatGPT mit korrekter Einstellung
6.5.3Nutzung einer lokalen KI ohne Internetverbindung
6.6Konkrete Handreichung mit Checkliste für Schulen
6.7Quelle: datenschutz-schule.info
6.8Regeln für künstliche Intelligenz – der EU AI Act und die KI-Verordnung
7Herausforderungen für den Bildungssektor
7.1Betrug durch KI?
7.1.1Selbstverständlicher Umgang mit KI-Modellen im Schulalltag
7.1.2Prüfungsleistungen aus dem häuslichen Umfeld
7.1.3Wie zitiert man die Ergebnisse von KI-Textgeneratoren?
7.2Generative KI im W-Seminar
7.2.1Assistenz der Lehrkräfte
7.2.2ChatGPT als Schülerwerkzeug für die W-Seminararbeit
7.3Prüfen mit Sprachgeneratoren – Ein Blick in die Zukunft
7.3.1Zukunftsformat 1: Text im Team
7.3.2Zukunftsformat 2: Gamifiziertes Prüfen
Sei nett zu deiner KI
Wer zu spät kommt, den bestraft das Leben! Dieser Satz, der Michail Gorbatschow zugeschrieben wird, klingt wie eine historische Mahnung. Tatsächlich stammt das Zitat aber gar nicht von ihm, sondern von seinem außenpolitischen Sprecher Gennadi Gerassimow, der es 1989 im Zusammenhang mit einem Treffen Gorbatschows mit DDR-Staatschef Honecker prägte. Trotz dieser Verwechslung hat das Zitat bis heute eine starke Aussagekraft und trifft unabhängig vom tatsächlichen Urheber den Kern unseres Anliegens: In einer Welt, die sich technologisch mit Lichtgeschwindigkeit entwickelt, können wir es uns nicht leisten, auf der Stelle zu treten – schon gar nicht im Bildungsbereich.
Während draußen die digitale Revolution tobt und Künstliche Intelligenz unseren Alltag neu definiert, verharren viele Schulen noch im analogen Zeitalter. Kreide und Tafel statt interaktivem E-Screen und die Möglichkeiten der KI bleiben meist ungenutzt. Diese Diskrepanz zwischen technologischer Entwicklung und schulischer Realität ist nicht nur ein technisches, sondern letztlich auch ein pädagogisches Defizit. Bildung steht am Scheideweg: Auf der einen Seite eröffnet Künstliche Intelligenz ungeahnte Möglichkeiten, den Unterricht zu bereichern, Lernprozesse zu individualisieren und Schüler auf eine digital geprägte Zukunft vorzubereiten. Auf der anderen Seite stehen Ängste, Unsicherheiten und oft auch mangelndes Wissen über den sinnvollen Einsatz dieser Technologien im Klassenzimmer.
Aber was bedeutet es für unsere Schülerinnen und Schüler, wenn wir diese Chancen ungenutzt lassen? In einer Welt, in der KI bereits in vielen Lebensbereichen Einzug gehalten hat – von personalisierten Empfehlungen in Streamingdiensten über Spracherkennung bis hin zu selbstfahrenden Autos –, ist es unsere Aufgabe als Lehrkräfte, jungen Menschen die Kompetenzen zu vermitteln, die sie in dieser neuen Realität benötigen. Das neue Zauberwort heißt KI-Kompetenz, die ich als Lehrkraft heute brauche, um sie morgen zum Gegenstand und Lernziel meines Unterrichts machen zu können.
Es geht nicht (nur) darum, technisches Wissen zu vermitteln, sondern auch darum, kritisches Denken zu fördern, ethische Fragen zu diskutieren und Medienkompetenz zu stärken. Wenn wir in der Schule an veralteten Methoden festhalten, laufen wir Gefahr, eine ganze Generation nicht ausreichend auf die Anforderungen der Zukunft vorzubereiten. Das Leben, d.h. die gesellschaftliche Entwicklung, kennt keinen Stillstand, und wer zu spät handelt, läuft Gefahr, den Anschluss dauerhaft zu verlieren. Wir haben jetzt die Chance, den Bildungsprozess neu zu gestalten: interaktiver, individueller und näher an der Lebenswelt unserer Schülerinnen und Schüler. Nutzen wir diese Chance, um gemeinsam die Bildung von morgen aktiv zu gestalten.
Dieses Buch richtet sich an Lehrende, die bereit sind, neue Wege zu gehen und sich mit den Möglichkeiten von generativer KI und speziell ChatGPT im Unterricht auseinanderzusetzen. Dabei soll es keine Technikgläubigkeit propagieren, sondern praxisnahe Anleitungen und Reflexionen bieten, das Potenzial von KI im Unterricht zu entdecken und aktiv zu nutzen. Lassen Sie uns diese Möglichkeiten gemeinsam erforschen.
Dieses Buch bietet Ihnen eine praxisorientierte Einführung in den Einsatz von ChatGPT im Unterricht. Es richtet sich sowohl an Lehrkräfte aller Schulformen und Fächer als auch an Entscheidungsträger, die mehr über das Potenzial und die Einsatzmöglichkeiten von KI im schulischen Kontext erfahren möchten. Vorkenntnisse sind hierbei nicht erforderlich.
In den ersten beiden Kapiteln erhalten Sie wichtige Hintergrundinformationen zur generellen Funktionsweise generativer KIs wie ChatGPT sowie Strategien, um zielführende Anfragen (Prompts) zu formulieren.
Das Herzstück des Buchs bilden die praktischen Kapitel 3 und 4, in denen Sie zahlreiche nützliche Prompts sowie Anregungen für den Einsatz von ChatGPT im Schulalltag finden – von der Unterrichtsplanung über die Verwendung als integrativer Bestandteil des Unterrichts bis hin zur Prüfungsvorbereitung und -korrektur. Der gezielte Einsatz von KI hilft Ihnen dabei, alltägliche Aufgaben effizienter zu erledigen und den Unterricht abwechslungsreicher sowie individueller zu gestalten. Zudem erhalten Sie konkrete Vorschläge für die Anwendung in unterschiedlichen Schulformen und Fächern.
Kapitel 5 betrachtet das Thema KI im Unterricht aus einer weiteren Perspektive und thematisiert KI-Kompetenz als Lernziel.
Die abschließenden Kapitel 6 und 7 beschäftigen sich mit den Herausforderungen und dem Datenschutz im Kontext generativer KI. Hierbei stehen Fragen wie der Umgang mit Betrugsversuchen mit KI sowie die Vereinbarkeit von generativer KI mit der Datenschutzgrundverordnung (DSGVO) im Vordergrund. Sie werden dabei sehen, dass der Einsatz von KI für Lehrkräfte unter Berücksichtigung einfacher Richtlinien problemlos möglich ist.
Dieses Buch vermittelt Ihnen das notwendige Wissen, um ChatGPT effektiv im Unterricht einzusetzen und das Potenzial der KI voll auszuschöpfen.
Barbara Engelke hat Germanistik und Theologie für das Lehramt an Gymnasien studiert und arbeitet als Lehrkraft sowie Fachschaftsleitung Deutsch an einem bayerischen Gymnasium. Im Vordergrund ihrer pädagogischen Tätigkeit steht, junge Menschen an neue Herausforderungen heranzuführen und sie für die Zukunft mit den nötigen Kompetenzen sowie einer kritisch-unabhängigen Haltung auszustatten.
Ulrich Engelke hat das erste Staatsexamen in Germanistik und Anglistik sowie einen Magister in Linguistik. Nach einem kurzen Ausflug in das Verlagswesen und freiberuflicher Tätigkeit als Fachautor hat er eine Internetagentur gegründet. Heute ist er als freier KI-Trainer und IT-Unternehmensberater tätig. Sein besonderes Interesse gilt technologischen Innovationen und deren ökonomischen wie gesellschaftlichen Auswirkungen.
lehren-mit-ki.de
Zusammen bieten Ulrich und Barbara Engelke Fortbildungen für Lehrkräfte und Schulleitungen zu künstlicher Intelligenz in Schule und Unterricht sowie ChatGPT an.
Das nächste große Ding ist da und es passt in jede Hosentasche: Künstliche Intelligenz ist dabei, den Alltag zu erobern und klopft nun auch an den Türen der Klassenzimmer an. Zwischen Schulbüchern, Tafel, Heften und Stundenplänen ist ein neues Thema aufgetaucht, das nicht mehr verschwinden wird. Wie verändert KI im Allgemeinen und ChatGPT im Besonderen die Schule und unseren Unterricht?
Wir zeigen Ihnen, wie diese intelligenten Technologien funktionieren und wie sie nicht nur unseren Alltag, sondern auch das Lernen und Lehren revolutionieren. Zunächst werfen wir mit diesem einführenden Kapitel einen Blick hinter die Kulissen der digitalen Revolution im Bildungsbereich. Statt trockener Theorie erwartet Sie eine anschauliche Reise von den Anfängen der KI bis zu aktuellen Entwicklungen wie ChatGPT, die weit mehr können, als nur einfache Antworten auf simple Fragen zu geben.
Ein Chatbot alias Large Language Model (LLM) ist ein KI-Modell, das auf einer riesigen Menge an Textdaten trainiert wurde, um natürliche Sprache zu verstehen und zu generieren. Es kann Texte verfassen, Fragen beantworten und viele sprachbasierte Aufgaben unterstützen. KI und maschinelles Lernen haben eine Revolution eingeläutet, von der erst spätere Generationen wissen werden, welche tiefgreifenden Veränderungen sie ausgelöst hat. Klar ist aber längst, dass die Veränderungen bahnbrechend sind und dass die Auswirkungen auf unser Leben ebenso vielfältig wie unabsehbar sind.
KI als Thema wirft uns notgedrungen immer wieder auf die Frage zurück, was Intelligenz eigentlich ist. Das ist gar nicht so einfach zu beantworten. Auf jeden Fall ist die Frage nach der Intelligenz eine, an der sich unterschiedliche Fächer und Forschungsrichtungen seit vielen Jahren abarbeiten und noch zu keiner gemeinsamen und allgemeingültigen Definition gefunden haben. Intelligenz kann man als ein komplexes und vielschichtiges Konzept beschreiben, das sich auf die Fähigkeit von Individuen bezieht, Informationen zu verarbeiten und darauf basierend zu handeln. Wir können also lernen und das Gelernte sinnvoll anwenden und immer weiterentwickeln, bis wir Dinge tun, die wir so niemals gelernt haben. Das wäre eine zumindest vorläufige und grundlegende Definition von natürlicher, menschlicher Intelligenz.
Das eigentlich Faszinierende daran ist der Transfer, also unsere Fähigkeit, Probleme zu lösen, die teilweise weit über das Gelernte hinausgehen. Dass wir unser Wissen ganz offensichtlich an immer neue Situationen anpassen und dort erfolgreich anwenden, ist ein ganz wichtiger Teil unserer Intelligenz. Um zu verstehen, wie das möglich ist, müssen wir uns die ganze Palette unserer kognitiven Fähigkeiten möglichst detailliert ansehen, einschließlich des logischen Denkens, der kreativen Problemlösungskompetenz, der gezielten Wahrnehmungsfähigkeit, des Verständnisses von Zusammenhängen, der Fähigkeit zur Kommunikation und des Lernens aus Erfahrungen. Aus diesen und anderen Grundfertigkeiten entstehen neue und zunehmend komplexere Fertigkeiten: die Fähigkeit, aus der Interaktion mit der Umwelt zu lernen, anspruchsvolle Konzepte zu erfassen, effektiv zu planen und zu handeln sowie kreativ und innovativ auf immer neue Herausforderungen zu reagieren.
Die Urväter der KI waren von der natürlichen, menschlichen Intelligenz auf jeden Fall so fasziniert, dass sie diese unsere Fähigkeiten auf Maschinen übertragen und Computern das selbstständige Lernen und Denken beibringen wollten. Die Ursprünge der Künstlichen Intelligenz sind stark mit dem Streben verbunden, maschinelle Systeme zu schaffen, die ähnliche kognitive Fähigkeiten wie der Mensch aufweisen. Die Urväter der KI, darunter Wissenschaftler wie Alan Turing, John McCarthy, Marvin Minsky, Allen Newell und Herbert A. Simon, waren von der Komplexität und Vielseitigkeit der menschlichen Intelligenz tief beeindruckt und inspiriert. Sie wollten verstehen, wie Intelligenz funktioniert, und diese Erkenntnisse nutzen, um Maschinen zu entwickeln, die ähnliche Aufgaben ausführen können. Heute ist Künstliche Intelligenz – oder im englischen Original Artificial Intelligence (AI) – der Überbegriff für durch Maschinen erbrachte, menschenähnliche Intelligenzleistungen.
Wie immer ist die Entwicklung neuer Technologien eng mit der Leistung ihrer Pioniere und bestimmten Ereignissen verbunden. Alan Turing gehört zu den ersten Visionären, der die Frage stellte, ob Maschinen denken können. Der berühmte Turing-Test war damals (1950) eher eine Idee als ein Test, der mit den vorhandenen Programmen schon hätte durchgeführt werden können: Wenn eine Maschine in der Lage ist, in einem Gespräch nicht von einem Menschen unterscheidbar zu sein, könnte sie als intelligent betrachtet werden und hätte damit den Turing-Test bestanden.
Die Dartmouth-Konferenz von 1956 gilt als die Geburtsstunde der KI als eigenständiges Forschungsfeld der Informatik, hier wurde die Grundlage für die zukünftige Forschung in diesem Bereich gelegt. Eine Vielzahl führender Köpfe kam auf dieser Konferenz zusammen.
John McCarthy ist eine Schlüsselfigur in der Geschichte der Künstlichen Intelligenz, er gilt vielen sogar als der eigentliche Vater der KI. Zumindest hat er schon während der Vorbereitung der Dartmouth Konferenz den Begriff Künstliche Intelligenz (KI) geprägt. Außerdem entwickelte er 1958 die Programmiersprache LISP, die zur bevorzugten Sprache in der KI-Forschung wurde und es in einigen Bereichen bis heute ist. McCarthy hat bedeutende Beiträge in mehreren Kernbereichen der KI verfasst, war ein Vorreiter bei der Entwicklung von Theorien und Modellen, die es Computern ermöglichen sollen, Alltagswissen zu nutzen, das für Menschen selbstverständlich ist. Er arbeitete sogar bereits an der Konzeptualisierung von autonomen Systemen, einschließlich autonomer Fahrzeuge, und entwickelte Technologien, wie sie heute in selbstfahrenden Autos zum Einsatz kommen.
Marvin Minsky war ein weiterer Pionier und gilt als der einflussreichste Theoretiker im Forscherfeld. Er gründete zusammen mit John McCarthy das MIT Artificial Intelligence Laboratory, das zu einem der weltweit führenden Zentren für KI-Forschung wurde. Dieses Labor zog viele talentierte Forscher an und war der Geburtsort zahlreicher bahnbrechender Ideen und Technologien im Bereich der KI. Minsky entwickelte die sogenannte Frametheorie, die ein Konzept zur Wissensrepräsentation in KI-Systemen darstellt. Minskys Buch Society of Mind ist ein bahnbrechendes Werk, das eine Theorie der menschlichen Intelligenz und des Bewusstseins als Netzwerk aus vielen kleinen und einfachen Prozessen bzw. Agenten entwirft. Diese Idee hat die Forschung in den Bereichen kognitive Wissenschaften und KI beeinflusst, insbesondere im Hinblick auf das Verständnis davon, wie komplexe geistige Prozesse aus simpleren Interaktionen entstehen können. Minsky hat Generationen von Studenten beeinflusst, die später zu führenden Wissenschaftlern und Technikern in der KI und verwandten Feldern wurden.
Nathaniel Rochester arbeitete bei IBM und war einer der Architekten des IBM 701, des ersten wissenschaftlichen Computers des Unternehmens. Seine Arbeit trug wesentlich dazu bei, die technische Basis für spätere Entwicklungen in der KI zu ermöglichen. Rochester war auch an der Entwicklung eines der ersten Programme beteiligt, das als KI-Experiment angesehen werden kann. Das Programm wurde auf dem IBM 704-Computer implementiert und zielte darauf ab, einfache algebraische Probleme zu lösen.
Claude Shannon revolutionierte das Verständnis von Datenübertragung, -verarbeitung und -speicherung. Seine Grundprinzipien der Informationstheorie sind für viele Aspekte der KI, wie Datenkompression und Fehlerkorrektur in maschinellen Lernsystemen, von großer Bedeutung. Shannon war einer der Ersten, der die Möglichkeiten von Computern zum Spielen von Schach und anderen Spielen erforschte. Seine Arbeiten in den 1950er-Jahren, insbesondere seine Strategien zur Schachprogrammierung, gelten als Pionierleistungen und beeinflussten die Entwicklung von KI-Algorithmen im Bereich der Spiele und Entscheidungstheorien.
Die führenden Köpfe der Dartmouth-Konferenz und ihre unterschiedlichen Schwerpunkte machen uns begreiflich, wie viele unterschiedliche Forschungsansätze nötig waren und an einem Ort zusammenkommen mussten, damit wir heute die Früchte ihrer visionären Gedanken und ambitionierten Bemühungen ernten können.
Nach der Dartmouth-Konferenz als Geburtsstunde der Künstlichen Intelligenz entwickelte sich die Forschung in mehreren Phasen weiter. Hier sind die wichtigsten Etappen und eine kurze Beschreibung der wesentlichen Entwicklungen von 1956 bis heute:
Die ersten Jahrzehnte der KI-Forschung konzentrierten sich stark auf symbolische Methoden und Expertensysteme. Diese Systeme basierten auf Logik und regelbasierten Entscheidungsprozessen, die menschliches Wissen speichern und versuchen, komplexe Problemlösungsfähigkeiten zu imitieren. Zu Beginn herrschte großer Optimismus über die Möglichkeiten der KI und die Forscher gingen davon aus, dass bedeutende Fortschritte schnell erreicht werden könnten. Allerdings stießen sie bald auf erhebliche technische und konzeptionelle Herausforderungen, die das Fortschrittstempo verlangsamten.
Der (erste) KI-Winter ist geprägt von allgemeiner Ernüchterung und unerwarteten Finanzierungsproblemen. Aufgrund der enttäuschten Erwartungen und der begrenzten Fortschritte kam es in den 1970er- und 1980er-Jahren zu einem Rückgang des Interesses für die KI-Forschung und einer zunehmend unsicheren Finanzierung. Trotz der allgemeinen Stagnation gab es in einigen spezifischen Bereichen Fortschritte, wie z.B. in der Entwicklung von Algorithmen für das maschinelle Lernen und in der Robotik.
In den 1980er-Jahren erlebte die KI einen erneuten Aufschwung durch den Einsatz von Expertensystemen in der Industrie. Expertensysteme zielten darauf ab, das Wissen und die Entscheidungsfähigkeiten menschlicher Experten in einem spezifischen, eng abgegrenzten Bereich nachzuahmen. Diese Systeme zogen deduktive Schlussfolgerungen und trafen Entscheidungen auf Basis einer komplexen Wissensbasis aus Fakten und Regeln. An der Stanford University entstanden mehrere Programme in den Bereichen der medizinischen Diagnostik und chemischen Analyse: MYCIN wurde entwickelt, um bakterielle Infektionen zu diagnostizieren und geeignete Antibiotika-Behandlungen vorzuschlagen. DENDRAL half Chemikern bei der Interpretation von Massenspektren, um die Struktur organischer Moleküle zu bestimmen. Damit waren KI-Programme erstmals in der Lage, komplexe wissenschaftliche Probleme zu lösen.
In diese Zeit fällt auch die Wiederentdeckung und Weiterentwicklung neuronaler Netze, die für den eigentlichen Durchbruch im maschinellen Lernen verantwortlich sind und zu bedeutsamen praktischen Fortschritten führten. Künstliche neuronale Netze sind Computer-Modelle, die von der Struktur und Funktionsweise des menschlichen Gehirns inspiriert sind. Ein neuronales Netz besteht aus mehreren Schichten von Knoten (Neuronen), die miteinander verbunden sind. Hinzu kamen neue Lernalgorithmen wie das Backpropagation-Verfahren, mit denen die Gewichte in einem neuronalen Netz angepasst werden konnten. Diese Gewichte sind die Werte, die die Stärke der Verbindung zwischen einzelnen Neuronen bestimmen. Sie beeinflussen, wie stark ein Eingangssignal weitergeleitet wird und sind entscheidend für das Lernen des Netzes. Das alles ermöglichte jetzt das Training tiefer neuronaler Netzwerke, die komplexe Muster in sehr großen Datensätzen erkennen konnten.
Die 2000er-Jahre markieren zwei wichtige Entwicklungen, die zu den eigentlichen Katalysatoren der Künstlichen Intelligenz wurden: Mit der rasanten Verbreitung des Internets und dem immer schneller wachsenden World Wide Web bekamen Forscher einfachen Zugang zu riesigen Datenmengen – insbesondere Texten und Bildern. Hinzu kam eine geradezu explosionsartige Entwicklung der Rechenleistung von Computern: Große Fortschritte in der Halbleitertechnik, die Entwicklung von Mehrkernprozessoren, immer größere Speicherkapazitäten mit schnelleren Zugriffsgeschwindigkeiten, leistungsstarke Grafikkarten (GPUs) und die skalierbare Rechenleistung des Cloud Computings haben der datengetriebenen KI den entscheidenden Schub versetzt. Komplexe Algorithmen konnten nun auf riesigen Datensätzen mit gigantischer Rechenpower trainiert werden, was zu beeindruckenden Ergebnissen in verschiedenen Anwendungsbereichen führte. Die Nutzung tiefer neuronaler Netze (Deep Learning) hat zu bahnbrechenden Fortschritten in Bereichen wie Bilderkennung, Sprachverarbeitung und Spielen wie AlphaGo geführt.
Gerade in den letzten Jahren hat sich das Tempo nochmals vervielfacht, KI flutet unser Leben wie ein mächtiger Tsunami: Apple, Microsoft, Google und Amazon haben jeweils eigene Sprachassistenten entwickelt und über mobile Endgeräte in unseren Alltag eingeschleust. Andere KI-Technologien sind mittlerweile in vielen Bereichen des täglichen Lebens präsent, neben Sprachassistenten sind selbstfahrende Autos Realität geworden, medizinische Diagnosen nutzen KI und personalisierte Empfehlungen auf Facebook, YouTube und Spotify sind für uns ganz selbstverständlich geworden.
Aber wie wurde das alles, noch dazu in so kurzer Zeit, möglich? Was unterscheidet die KI so grundlegend von anderen Zweigen der Informatik? Welche Methoden und Prinzipien machen den entscheidenden Unterschied? Um das herauszufinden, müssen wir uns mit dem Bereich Machine Learning (ML) befassen. Machine Learning ist ganz allgemein gesprochen ein Teilbereich der Künstlichen Intelligenz, der sich mit der Entwicklung von Algorithmen und statistischen Modellen beschäftigt, die Computersysteme in die Lage versetzen, aus Daten zu lernen und Muster zu erkennen, ohne explizit für genau diese Muster programmiert zu sein.
Machine Learning (oder künstliches Lernen ganz allgemein) wird üblicherweise in drei grundlegende Konzepte bzw. Methoden unterteilt: überwachtes Lernen (Supervised Learning), unüberwachtes Lernen (Unsupervised Learning) und bestärkendes Lernen (Reinforcement Learning).
Überwachtes Lernen liegt immer dann vor, wenn ein Algorithmus aus einem vorbereiteten Trainingsdatensatz lernt, der neben den Eingabedaten auch schon die entsprechenden Ausgabewerte enthält. Der einfachste und am häufigsten zitierte Fall zur Erklärung des überwachten Lernens ist ein Algorithmus, der Bilder von Hunden und Katzen unterscheiden kann. Wir nehmen dazu einen Datensatz mit 100 Bildern, 50 Hundebilder und 50 Bilder von Katzen. Typischerweise würde man jetzt 70 Bilder für das Training verwenden und dem Algorithmus zu jedem Bild die Information geben, um welches der beiden Tiere es sich auf dem gezeigten Bild handelt. Ist das Training abgeschlossen, prüft man mit den restlichen 30 Bildern, wie gut die Unterscheidung in der Praxis schon funktioniert. Ist das Ergebnis noch nicht zufriedenstellend und die Fehlerrate zu hoch, kann der Algorithmus durch zusätzliches Training verbessert werden. Weitere Bilder müssen bereitgestellt und klassifiziert (gelabelt) werden, solche gelabelten Daten sind die Voraussetzung für überwachtes Lernen. In unserem Fall müssten mindestens weitere 100 Bilder von Hunden und Katzen einer der beiden Arten zugeordnet werden. Der Aufwand dafür ist zwar überschaubar, aber die Fähigkeiten des so entstandenen Programms sind natürlich auch sehr begrenzt.
Reale Anwendungsbeispiele des überwachten Lernens bringen aber schon ziemlich komplexe Programme mit hohem praktischen Nutzen hervor. Der Bayes-Filter ist eine weit verbreitete Methode zur Klassifikation von E-Mails als Spam oder Nicht-Spam. Statt Tierbildern legt man dem Algorithmus reale Mails aus dem eigenen Postfach vor und kennzeichnet alle, die wir als Spam einstufen und eigentlich nicht lesen wollen. Daraus lernt der Algorithmus eine individuelle und recht zuverlässige Klassifikation von E-Mails als Spam oder Nicht-Spam. Eine andere KI-Anwendung kann den Kaufpreis eines Hauses, basierend auf typischen Merkmalen wie Baujahr, Quadratmeterzahl, Anzahl der Schlafzimmer usw., vorhersagen. Überwachtes Lernen ist die Grundlage von Algorithmen zur Gesichtserkennung oder um vorherzusagen, ob ein Kunde ein Produkt kauft – basierend auf dem Verhalten anderer, ähnlicher Kunden. Auf der Basis medizinischer Daten kann damit die Wahrscheinlichkeit eines Herzinfarkts für einen gegebenen Patienten berechnet und vorausgesagt werden. Die viel zitierte Kreditrisikobewertung für eine Bank ist ebenfalls eine auf überwachtem Lernen basierte Anwendung, um die Wahrscheinlichkeit vorherzusagen, mit der ein Kreditnehmer seine Schulden zurückzahlen wird oder ob die Forderung ausfällt.
Nicht alle Daten können vor dem Training aufbereitet und gelabelt werden: Erstens, weil der Aufwand zu hoch ist und die Datenmenge dadurch immer begrenzt bleibt, und zweitens, weil oft gar noch nicht bekannt ist, welche Merkmale für eine Kennzeichnung überhaupt relevant sind. Unüberwachtes Lernen ist eine Methode des maschinellen Lernens, bei der der Algorithmus auf einen Datensatz ohne vorherige Kennzeichnung der Daten trainiert wird. Statt explizit zu wissen, welche Daten zu welchen (noch unbekannten) Kategorien gehören, versucht der Algorithmus, Muster und Strukturen in den Daten selbst zu erkennen. Ein klassisches Beispiel für unüberwachtes Lernen ist das Clustering, bei dem ähnliche Datenpunkte in Gruppen oder Clustern zusammengefasst werden.
Stellen Sie sich vor, Sie haben einen Datensatz mit 1.000 Bildern von Tieren, darunter Hunde, Katzen, Vögel und Fische, aber ohne zu wissen, welche Bilder zu welchen Tieren gehören. Ein Clustering-Algorithmus wie K-Means könnte verwendet werden, um diese Bilder in Gruppen zu unterteilen, basierend auf ihren Ähnlichkeiten. Der Algorithmus könnte beispielsweise feststellen, dass es vier Hauptgruppen gibt und diese entsprechend kennzeichnen. Wir wissen jedoch nicht im Voraus, dass eine Gruppe Hunde und eine andere Katzen enthält; das muss durch Interpretation der resultierenden Cluster erfolgen.
Ein weiteres Beispiel für unüberwachtes Lernen ist das Vereinfachen von großen Datensätzen für die Analyse von Kunden in einem Supermarkt, über die sehr viele unterschiedliche Daten gesammelt wurden:
■Alter
■Geschlecht
■Wohnort
■Einkommen
■Einkaufsgewohnheiten (z.B. Häufigkeit der Einkäufe, bevorzugte Wochentage)
■Gekaufte Produkte (z.B. Obst, Gemüse, Fleisch, Milchprodukte)
■Durchschnittlicher Einkaufswert
■Zahlungsmethode (z.B. bar, Kreditkarte)
Das sind sehr viele Informationen und es ist schwierig, einen Überblick zu behalten. Mit Techniken wie der Hauptkomponentenanalyse (PCA) oder t-SNE kann man diese vielen Daten auf einige wenige wichtige Merkmale reduzieren, die trotzdem die wichtigsten Unterschiede zwischen den Kunden zeigen. Zum Beispiel könnte man die Daten auf die drei Merkmale Einkaufsgewohnheiten, Alter und geografische Lage reduzieren. Das macht es einfacher, Muster zu erkennen, wie z.B., dass Kunden aus bestimmten Wohngebieten häufiger einkaufen oder dass junge Kunden andere Produkte bevorzugen als ältere Kunden. So kann der Supermarkt seine Marketingstrategien besser anpassen und gezielt auf die Bedürfnisse verschiedener Kundengruppen eingehen.
Die Vorteile des unüberwachten Lernens
Weil Daten vorher nicht mehr manuell aufbereitet werden müssen, können wir beim unüberwachten Lernen auf wesentlich größere (und theoretisch unbegrenzte) Datenmengen zurückgreifen. Unüberwachtes Lernen kann dazu beitragen, neue und unentdeckte Muster oder Gruppen innerhalb der Daten zu identifizieren, um Daten zu bereinigen, zu gruppieren oder zu reduzieren, was die Effizienz und Genauigkeit von Modellen des überwachten Lernens verbessern kann.
Typische Anwendungen des unüberwachten Lernens:
■Kundensegmentierung: Einteilung von Kunden in Gruppen für gezieltes Marketing
■Anomalieerkennung: Erkennung von Betrug oder Fehlern in Finanztransaktionen oder Netzwerksicherheit
■Marktforschung: Entdeckung von Mustern und Trends in großen Datensätzen zur Unterstützung der Produktentwicklung
■Dokumenten- oder Textklassifikation: Gruppierung von Dokumenten, basierend auf ihrem Inhalt in Themen oder Kategorien, beispielsweise in Bibliotheken
■Datenvisualisierung: Visualisierung komplexer Datensätze in vereinfachter Form, um bessere Geschäftsentscheidungen zu treffen
■Bildanalyse und Gesichtserkennung: Erkennung von Mustern in Bilddaten
■Empfehlungssysteme: Erstellung personalisierter Empfehlungen für Videobeiträge, Filme und Produkte wie bei YouTube, Netflix und Amazon
Bestärkendes Lernen ist die dritte grundlegende Methode des maschinellen Lernens, die durch kontinuierliches Feedback immer genauere Anpassungen und Optimierungen ermöglicht. Algorithmen und Maschinen lernen, optimale Entscheidungen zu treffen, um komplexe Aufgaben zu bewältigen. Hierzu lernt ein Agent durch Interaktion mit seiner Umgebung, wie er bestimmte Aufgaben ausführen kann, um eine Belohnung zu maximieren. Anders als beim überwachten Lernen, wo der Algorithmus anhand von gelabelten Daten trainiert wird, oder beim unüberwachten Lernen, wo der Algorithmus Muster in unstrukturierten Daten erkennt, basiert das bestärkende Lernen auf dem Prinzip von Versuch und Irrtum. Der Agent erhält Feedback in Form von Belohnungen, ausbleibenden Belohnungen oder gar Strafen und passt sein Verhalten entsprechend an. Ein einfaches Beispiel für bestärkendes Lernen ist das Training eines Saugroboters, der lernen soll, wie man durch ein Wohnzimmer navigiert. Der Roboter erhält eine Belohnung, wenn er das Ziel erreicht, und keine Belohnung, wenn er gegen eine Wand stößt. Anfangs wird der Roboter zufällige Bewegungen ausführen, aber mit der Zeit lernt er, welche Aktionen ihn näher zum Ziel der Belohnung bringen und welche nicht.
Roboter mögen keine Schokolade
Wenn Sie sich auch schon Gedanken darüber gemacht haben, womit man einen Staubsauger mit KI-Unterstützung belohnen kann: mit numerischen Belohnungspunkten! Der Roboter erhält Punkte oder einen numerischen Wert als Belohnung, wenn er erfolgreich ein Ziel erreicht, wie z.B. einen bestimmten Bereich vollständig zu reinigen oder effizient von einem Punkt zum anderen zu navigieren, ohne irgendwelche Hindernisse zu berühren. Roboter belohnt man eben anders als Menschen!
Ein anderes Beispiel sind Computerprogramme, die lernen, Spiele wie Schach oder Go zu spielen. Hier wird der Agent (das Programm) durch die Rückmeldungen (Gewinn oder Niederlage) trainiert. Der Algorithmus analysiert verschiedene Spielzüge und deren Ergebnisse, um Strategien zu entwickeln, die seine Gewinnchancen erhöhen.
Weitere typische Anwendungen des bestärkenden Lernens sind sehr vielfältig, viele finden sich in der Robotik. Sie ermöglicht es Robotern in dynamischen und komplexen Umgebungen wie in der Produktion oder bei Rettungseinsätzen, ihre Aufgaben immer effektiver und sicherer ausführen. Sie lernen, sich an neue Situationen anzupassen und Aufgaben effizient zu erledigen. Bestärkendes Lernen hilft bei der Optimierung beliebiger Prozesse und kann z.B. auch die Steuerung von Verkehrsflüssen erheblich verbessern: Der Agent lernt, wie er Ampelschaltungen optimieren kann, um den Verkehrsfluss zu maximieren und Staus zu minimieren.
In der Finanzwelt wird bestärkendes Lernen zur Entwicklung von Handelsalgorithmen eingesetzt werden, die optimale Entscheidungen treffen, um Gewinne zu maximieren und Verluste zu minimieren. Der Algorithmus lernt aus historischen Daten und passt seine Handelsstrategien, basierend auf den Ergebnissen früherer Entscheidungen, kontinuierlich an. Im Gesundheitswesen kann bestärkendes Lernen Behandlungspläne optimieren, indem es die Wirksamkeit verschiedener Therapien kontinuierlich analysiert.
Machine Learning (ML) und Deep Learning (DL) sind beides Teilbereiche der Künstlichen Intelligenz, unterscheiden sich jedoch in ihrer Komplexität und Anwendungsweise. Deep Learning basiert auf künstlichen neuronalen Netzwerken, insbesondere auf tiefen neuronalen Netzwerken mit sehr vielen Schichten, ähnlich unserem Gehirn. Damit ist DL geeignet, hochkomplexe und abstrakte Muster in sehr großen Datenmengen zu erkennen und geht weit über die Möglichkeiten des Machine Learnings hinaus. Es wird für komplexere Anwendungen wie Bild- und Spracherkennung, automatische Übersetzung, autonomes Fahren und die Generierung von Texten oder Bildern wie bei ChatGPT und DALL·E eingesetzt.
Ein weiterer Unterschied zwischen Machine Learning und Deep Learning liegt in der Komplexität und der zu verarbeitenden Datenmenge, wobei DL sehr große Datenmengen verarbeiten kann, wenn die dafür erforderliche Rechenleistung zur Verfügung steht. Wo beim ML Merkmale teilweise noch manuell ausgewählt werden müssen, ist beim DL der Prozess der Merkmalsextraktion komplett automatisiert, da neuronale Netzwerke selbst relevante Merkmale aus den Rohdaten lernen und anwenden können. DL wird daher bevorzugt für Aufgaben eingesetzt, die hochdimensionale und komplexe Daten erfordern, wie Bilder, Videos und besonders auch Sprache. Praktisch alle Leuchtturmanwendungen der KI sind das Ergebnis von Deep-Learning-Algorithmen, die mit riesigen Datensätzen und einer enormen Rechenleistung erstellt bzw. trainiert wurden.
DL-Modelle wie Convolutional Neural Networks (CNNs) werden verwendet, um Bilder zu erkennen und zu klassifizieren, z.B. in der medizinischen Bildgebung zur Erkennung von Tumoren. Recurrent Neural Networks (RNNs) und Transformer-Modelle (wie die gesamte GPT-Familie) basieren ebenfalls auf DL und werden für Aufgaben der natürlichen Sprachverarbeitung (NLP), in der maschinellen Übersetzung, der Textgenerierung und für die Stimmungsanalyse eingesetzt.
OpenAI wurde im Dezember 2015 von Elon Musk, Sam Altman und anderen gegründet. Die Organisation hatte das Ziel, sichere und nützliche Künstliche Intelligenz für alle zu entwickeln und ihre Forschungsergebnisse offen zugänglich zu machen. Die Vision war, dass KI das menschliche Leben verbessern kann, wenn fortschrittliche Technologien zum Wohle der gesamten Menschheit und nicht nur zur Verfolgung kommerzieller Interessen eingesetzt werden. Als unabhängige Forschungsorganisation, die sich auf die Entwicklung von KI-Technologien konzentriert, die transparent und kooperativ mit anderen Forschungseinrichtungen und der Öffentlichkeit geteilt werden, wollte man bei OpenAI die Chancen und Herausforderungen der KI besser verstehen, für alle verständlich machen und im Interesse der Allgemeinheit handhaben.
Der Ausstieg von Elon Musk bei OpenAI
Elon Musk, einer der Mitgründer von OpenAI, trat im Jahr 2018 aus dem Vorstand der Organisation zurück. Der Ausstieg wurde offiziell mit potenziellen Interessenskonflikten begründet, da Tesla, das Unternehmen, bei dem Musk CEO ist, zunehmend eigene KI-Forschung und -Entwicklung betrieb, insbesondere im Bereich des autonomen Fahrens. Es wurde befürchtet, dass seine Rolle bei beiden Organisationen zu Interessenskonflikten führen könnte. Über mögliche andere Gründe wie ein persönliches Zerwürfnis zwischen Musk und Altman wurde sehr viel spekuliert, wirklich gesichert ist nichts davon. Trotz seines Rücktritts als Vorstandsmitglied blieb Musk OpenAI weiterhin als bedeutender Unterstützer und Spender verbunden.
Die Entstehung und Entwicklung von ChatGPT bei OpenAI ist das Ergebnis fortlaufender Forschung und Innovation im Bereich der Künstlichen Intelligenz und des Natural Language Processing (NLP). Zentrales Projekt der Organisation war die Entwicklung der Generative Pre-trained Transformer (GPT) als leistungsstarke, generative Sprachmodelle. GPT-1, das erste Modell, wurde schon 2018 veröffentlicht und zeigte bereits die Fähigkeit, menschenähnlichen Text zu generieren. In Fachkreisen galt das als bedeutender Schritt in der NLP-Forschung und demonstrierte schon damals das Potenzial von vortrainierten Sprachmodellen auf eindrucksvolle Weise. 2019 folgte mit GPT-2 eine erheblich größere und leistungsfähigere Version, die beeindruckend kohärente und kontextuelle Texte generieren konnte. Aufgrund von Bedenken über den möglichen Missbrauch entschied sich OpenAI zunächst, die vollständige Version nicht zu veröffentlichen.
Der eigentliche Durchbruch und eine stärkere Wahrnehmung in der Öffentlichkeit kam 2020 mit GPT-3, das mit 175 Milliarden Parametern einen weiteren immensen Sprung darstellte. Parameter in einem neuronalen Netz sind die Gewichte und Bias-Werte, die während des Trainings angepasst werden, um das Modell zu optimieren und genaue Vorhersagen zu ermöglichen. Dieses Modell konnte sehr detaillierte und nuancierte Texte generieren, was seine Anwendungen in verschiedenen Bereichen erheblich erweiterte. Die Leistungsfähigkeit von GPT-3 ermöglichte die Entwicklung von ChatGPT, einer speziell auf Dialoge und interaktive Kommunikation ausgerichteten Anwendung. ChatGPT beeindruckte durch seine Fähigkeit, natürliche und sinnvolle Gespräche zu führen, und fand schnell breite Anwendung in Bereichen wie Kundenservice, Bildung und kreativer Inhaltserstellung.
Die Kommerzialisierung von OpenAI begann im Jahr 2019 und war ein strategischer Schritt, um die langfristige Finanzierung und Entwicklung der KI-Forschung zu sichern. OpenAI kündigte die Gründung von OpenAI LP als kapitalisierte Einheit innerhalb der Organisation an. Die Entwicklung fortschrittlicher KI-Technologien, insbesondere großer Modelle wie GPT-3, erfordert immense Rechenressourcen und finanziellen Aufwand. Um diese Projekte nachhaltig finanzieren zu können, war es wohl notwendig, zusätzliche Einnahmequellen zu erschließen. Ein weiterer Grund war der Wunsch nach schnellerem Wachstum und Innovation. Durch den Zugang zu externen Investitionen konnte OpenAI seine Forschung und Entwicklung erheblich beschleunigen.
Das Capped-Profit-Modell
OpenAI LP ist eine begrenzt gewinnorientierte Einheit innerhalb von OpenAI, die im Jahr 2019 gegründet wurde. Seine Struktur basiert auf einem Capped-Profit-Modell, das darauf abzielt, Investoren anzuziehen und gleichzeitig die gemeinnützigen Ziele von OpenAI zu bewahren. Dieses Modell begrenzt die Gewinne auf das 100-Fache der Investition, um sicherzustellen, dass die Gewinne nicht übermäßig werden und die Mission der gemeinnützigen Mutterorganisation unterstützt wird. Durch die Kommerzialisierung konnte OpenAI externe Investoren anziehen und Partnerschaften mit führenden Technologieunternehmen eingehen. Ein prominentes Beispiel hierfür ist die Zusammenarbeit mit Microsoft, das eine Milliarde Dollar in OpenAI investierte und die Integration von OpenAI-Technologien in seine Cloud-Plattform Azure förderte.
Durch diese Struktur konnte OpenAI eine gewisse Balance zwischen der Sicherstellung ausreichender Finanzierung und der Aufrechterhaltung seiner ethischen und gemeinnützigen Ziele finden. Die Kommerzialisierung ermöglicht es OpenAI, seine Mission in begrenztem Maße weiterzuverfolgen und gleichzeitig die Ressourcen zu haben, um in der sich schnell entwickelnden KI-Landschaft führend zu bleiben.
Diese eingangs gestellte Frage haben wir noch gar nicht beantwortet und ganz genau scheinen es nicht einmal die Entwickler zu wissen – auch der Weg zu den ersten KI-Chatbots ist gepflastert mit Versuch und Irrtum. Offenbar wenden KI-Entwickler dieselben Prinzipien an, mit denen sie auch ihre neuronalen Netze trainieren, indem sie immer neue Ansätze probieren und die besten weiterverfolgen. Der Entwicklungsprozess ist dadurch nicht vollständig kontrollierbar, was die Systeme umso menschenähnlicher macht. KI-Chatbots wie ChatGPT funktionieren durch die Kombination von verschiedenen Technologien und Prozessen, die es ihnen ermöglichen, menschenähnliche Gespräche zu führen. Hier ist ein kurzer Überblick über den Prozess, möglichst allgemeinverständlich erklärt:
Der erste Schritt ist das Verstehen der Benutzereingabe – also des Prompts. Dies geschieht durch Natural Language Processing (NLP), einer Technologie, die es dem Chatbot ermöglicht, die Sprache des Nutzers zu analysieren und zu interpretieren. NLP zerlegt den eingegebenen Text in einzelne Sätze, Wörter und Tokens und bestimmt deren Bedeutung anhand des Kontexts. Nachdem die Eingabe verarbeitet wurde, muss der Chatbot die Absicht des Nutzers dahinter erkennen. Ohne diese sogenannte Intent-Erkennung würden teilweise unsinnige Ergebnisse herauskommen. Der Chatbot analysiert die Schlüsselwörter und Phrasen im Text, um herauszufinden, was der Nutzer möchte – z.B. eine Information suchen, eine Bestellung aufgeben oder eine Support-Anfrage stellen.
Intent-Erkennung bei LLMs und indirekte Sprechakte
Wenn jemand sagt: »Es zieht!«, meint er damit eigentlich: »Bitte schließe die Tür!« Solche indirekten Sprechakte sind in der menschlichen Kommunikation alltäglich und wir verstehen diese spontan und zweifelsfrei. Große Sprachmodelle (LLMs) wie ChatGPT erkennen diese versteckten Absichten ebenfalls, indem sie den Kontext und sprachliche Muster analysieren. Sie verstehen nicht nur die wörtliche Aussage, sondern auch die dahinterliegende Intention. Dadurch können sie auf indirekte Anfragen angemessen reagieren und sind im Unterricht wertvolle Helfer beim Erfassen von Schülerbedürfnissen. Wenn ein Schüler sagt: »Das Thema ist ziemlich komplex«, können LLMs z.B. erkennen, dass er möglicherweise zusätzliche Unterstützung benötigt. Diese Fähigkeit zur Intent-Erkennung macht LLMs zu effektiven Werkzeugen für eine einfühlsame und responsive Lehrpraxis.
Basierend auf der erkannten Absicht greift der Chatbot nun auf relevante Quellen zu, um die benötigten Daten und Informationen abzurufen. Dieser Schritt ist tatsächlich am wenigsten dokumentiert, andererseits wissen wir auch wenig darüber, wie unser Gehirn diese Aufgabe erledigt und Wissen aus dem großen Fundus namens Gedächtnis abruft. Mittlerweile ist ChatGPT nicht einmal mehr auf die eigene Basis der Trainingsdaten angewiesen und kann je nach Frage auch andere Quellen hinzunehmen: Dies kann eine Datenbank, ein Wissensgraph, eine API oder eine Suche bei Bing sein. Wenn der Nutzer beispielsweise nach dem Wetter fragt, wird der Chatbot eine Wetter-API oder einen Online-Service abfragen, um die aktuellen Wetterdaten zu erhalten.
Der nächste und letzte Schritt ist die Generierung einer passenden Antwort. Ein Sprachmodell wie GPT versucht nun eine Antwort zu erstellen, die sowohl inhaltlich korrekt als auch natürlich formuliert ist und den spezifischen Anforderungen des Prompts entspricht. Der Chatbot stellt sicher, dass die Antwort im besten Fall klar und verständlich ist. Moderne KI-Chatbots sind außerdem in der Lage, auch aus den Interaktionen mit Nutzern zu lernen. Durch maschinelles Lernen verbessern sie kontinuierlich ihre Fähigkeit, Nutzerabsichten zu erkennen und passende Antworten zu generieren. Feedback-Schleifen wie Rückfragen oder Daumen-nach-oben- bzw. Daumen-nach-unten-Klicks und Nutzerdaten werden verwendet, um die Modelle laufend zu verfeinern und die Leistung des Chatbots permanent zu optimieren.
Schema der KI-Chatbots
Alle KI-Chatbots funktionieren nach diesem einfachen Schema:
1.Eingaben der Nutzers verstehen
2.Die Absicht erkennen
3.Relevante Daten abrufen
4.Passende Antworten generieren
5.Kontinuierlich lernen und sich weiter anpassen
ChatGPT basiert auf dem Konzept Finde das nächste Wort, das als grundlegender Mechanismus maschinellen Lernens im Bereich der Natural Language Processing (NLP) verwendet wird. Ein Sprachmodell wie ChatGPT wird auf riesigen Mengen an Textdaten trainiert: Schon in der Trainingsphase muss das Sprachmodell beim Lesen der Texte das jeweils nächste Wort vorhersagen und bekommt während des Trainings unmittelbar danach das Ergebnis als Feedback. Je länger ein Algorithmus an Texten trainiert, umso besser werden diese Voraussagen. Wie ein Kind beim Erwerb der Erstsprache lernt die KI, welche Möglichkeiten es im Spiel Finde das nächste Wort an jedem einzelnen Punkt gibt. Einige Wörter folgen mit sehr hoher Wahrscheinlichkeit, andere kommen eher selten vor und haben also eine geringere Wahrscheinlichkeit, als nächstes Wort zu erscheinen. Ziel des Trainings ist es, die Wahrscheinlichkeiten für das Auftreten von Wörtern in einem bestimmten Kontext zu lernen. Das Modell lernt immer besser, zu jedem einzelnen Zeitpunkt vorherzusagen, welche Wörter am wahrscheinlichsten als Nächstes in der vorliegenden Sequenz erscheinen.
Testen Sie sich selbst und vervollständigen Sie den Satz im folgenden Kasten: Starten Sie mit dem ersten Wort in der obersten Zeile, raten Sie das nächste und decken Sie die einzelnen Zeilen nach und nach auf, um ein direktes Feedback auf Ihre eigenen Antworten zu erhalten:
Finde das nächste Wort!
Herzlichen
Herzlichen Glückwunsch
Herzlichen Glückwunsch zum
Herzlichen Glückwunsch zum Geburtstag
Herzlichen Glückwunsch zum Geburtstag und
Herzlichen Glückwunsch zum Geburtstag und alles
Herzlichen Glückwunsch zum Geburtstag und alles Gute
Herzlichen Glückwunsch zum Geburtstag und alles Gute lieber
Herzlichen Glückwunsch zum Geburtstag und alles Gute lieber Thomas
Wir kennen das alle von unserem Smartphone, wenn wir Nachrichten in einem Messenger verfassen und die Schreibkorrektur uns immer wieder mehr oder weniger passende Vorschläge liefert. Die Treffergenauigkeit steigt dort übrigens, wenn Sie die richtige Sprache eingestellt haben, weil das die Zahl der Möglichkeiten für das nächste Wort verringert. Außerdem lernt dieser Assistent auch aus den Nutzerdaten. Nach Liebe Grüße folgt meistens Ihr eigener Vorname, mit bestimmten Gesprächspartnern tauschen Sie sich regelmäßig über dieselben Themen aus und verwenden dabei immer dieselben Namen und Wörter.
Der Trainingsprozess bei einem großen Sprachmodell beginnt immer mit der sogenannten Tokenisierung, bei der der Text in kleinere Einheiten, die Tokens, zerlegt wird. Diese Tokens können Wörter, Teile von Wörtern oder sogar einzelne Zeichen sein. Danach betrachtet das Modell den Kontext der vorhergehenden Tokens, um die Wahrscheinlichkeit des nächsten Tokens zu bestimmen. Beispielsweise, wenn die vorherigen Tokens »Der Hund« sind, könnte das Modell vorhersagen, dass das nächste Token mit hoher Wahrscheinlichkeit ein Verb wie »bellt« sein könnte. Für jedes Token im Trainingstext berechnet das Modell eine Wahrscheinlichkeitsverteilung über alle möglichen nächsten Tokens. Das Modell wird darauf trainiert, die Parameter so anzupassen, dass die Wahrscheinlichkeit der tatsächlich folgenden Tokens maximiert wird.
Bei der Generierung von Texten verhält sich ChatGPT wie ein autoregressives Modell, was bedeutet, dass es die Tokens eines nach dem anderen generiert. Es beginnt mit einem Start-Token und sagt das nächste Token basierend auf dem bisher generierten Kontext voraus. Dieser Prozess wird wiederholt, bis die gewünschte Länge des Texts erreicht oder ein vordefiniertes Endkriterium erfüllt ist. Durch diese Methode kann ChatGPT menschenähnliche Texte erstellen, indem es (wie im Training gelernt) auf das Konzept Finde das nächste Wort zurückgreift, um kontextuell relevante und kohärente Sätze zu bilden.
Jenseits der Ebene Satz wartet ein ganz neues Problem auf uns: Wer einfach nur grammatikalisch korrekte und inhaltlich sinnvolle Sätze aneinanderreiht, hat noch lange keinen Text erstellt, wie ihn der Deutschlehrer in der Schule einfordert. Es fehlt ein roter Faden und – bildlich gesprochen – der Klebstoff zwischen der einzelnen Sätzen. Kohärenz und Kohäsion sind dieser roter Faden sowie der Klebstoff und gleichzeitig zwei wichtige Konzepte in der Textlinguistik, einer sprachwissenschaftlichen Disziplin, die sich mit der Struktur und Verständlichkeit von Texten beschäftigt. Kohärenz bezieht sich auf die logische und inhaltliche Verknüpfung von Ideen und Informationen in einem Text. Ein kohärenter Text ist leicht verständlich und folgt einem klaren Gedankengang. Kohärenz entsteht durch:
■Sinnzusammenhänge: Die Ideen und Informationen im Text hängen logisch miteinander zusammen.
■Thematische Einheit: Der Text bleibt bei einem Hauptthema und entwickelt dieses Thema konsistent weiter.
■Textstruktur: Die Anordnung der Sätze und Absätze folgt einer nachvollziehbaren Struktur, z.B. Einleitung, Hauptteil und Schluss.
Ein kurzes Beispiel für Kohärenz: »Die Sonne schien hell. Es war ein perfekter Tag für ein Picknick. Wir packten unsere Sachen und gingen zum Park.« Hier gibt es eine klare Abfolge von Ereignissen, die logisch miteinander verbunden und für den Leser mit allgemeinem Weltwissen leicht nachvollziehbar sind.Kohäsion bezieht sich auf die sprachlichen Mittel, die verwendet werden, um die Elemente eines Texts miteinander zu verbinden (oder zu verkleben). Es geht also nicht um den Inhalt, sondern um die formalen Verknüpfungen zwischen Wörtern, Sätzen und Absätzen. Kohäsion wird durch verschiedene sprachliche Mittel erreicht:
■Pronomen: Verwendung von Pronomen, um auf vorherige Sätze oder Wörter zu verweisen (z.B. »Die Katze sprang auf den Tisch. Sie war sehr schnell.«)
■Konjunktionen: Einsatz von Bindewörtern, um Sätze und Satzteile zu verbinden (z.B. »und«, »aber«, »weil«)
■Wiederholungen und Synonyme: Wiederholung wichtiger Wörter oder Verwendung von Synonymen, um den Zusammenhang zu verdeutlichen (z.B. »Das Haus ist groß. Das Gebäude hat fünf Stockwerke.«)
■Lexikalische Kohäsion: Verwendung thematisch verwandter Wörter (z.B. »Bäume«, »Wald«, »Blätter«)
Hier auch ein kurzes Beispiel für Kohäsion: »Die Sonne schien hell. Sie warf lange Schatten auf den Boden.» Hier wird durch das Pronomen »Sie« klar, dass auf die »Sonne« im vorherigen Satz verwiesen wird. »Sonne« und »Schatten« als thematisch verwandte Wörter stellen eine lexikalische Kohäsion dar. Ein guter Text benötigt sowohl Kohärenz als auch Kohäsion, um für den Leser verständlich und angenehm lesbar zu sein. ChatGPT stellt Kohärenz und Kohäsion in Texten durch verschiedene Mechanismen sicher, die in seine Architektur und die Trainingsprozesse eingebaut sind. Kohärenz wird durch die Kontextverfolgung und Sequenzmodellierung erreicht. ChatGPT verfolgt den Kontext eines Gesprächs oder Texts, um sicherzustellen, dass die Antworten relevant und logisch aufeinander aufbauen. Das Modell wurde auf unvorstellbar großen Textmengen trainiert, die natürliche Sprachmuster enthalten, wodurch es typische Sequenzen von Ideen und Informationen erkennt und reproduziert. Dadurch kann ChatGPT Themen konsistent weiterentwickeln und den Fluss der Argumentation oder Erzählung aufrechterhalten.Kohäsion wird durch die korrekte Verwendung von Pronomen und referenziellen Ausdrücken erreicht, um Verbindungen zwischen Sätzen herzustellen. ChatGPT integriert Konjunktionen und andere Bindewörter, um Sätze und Absätze logisch zu verbinden, was eine klare und kohäsive Struktur im Text schafft. Zudem verwendet das Modell Wiederholungen und Synonyme, um den Text flüssig und kohäsiv zu gestalten, und vermeidet unnötige Wiederholungen durch alternative Ausdrücke, die thematisch und semantisch verwandt sind. Das Modell stellt sicher, dass verwandte Begriffe und Ausdrücke im gesamten Text verwendet werden, um ein zusammenhängendes Thema zu präsentieren, was zur lexikalischen Kohäsion beiträgt.
Ein Beispiel dafür ist, wenn ein Nutzer mit dem folgenden Satz beginnt: »Die Sonne scheint hell und der Himmel ist klar.« und anschließend fragt: »Was können wir an solch einem Tag unternehmen?« ChatGPT könnte dann antworten: »An einem so sonnigen Tag könnten wir ein Picknick im Park machen. Der klare Himmel wäre auch perfekt für viele anderen Outdoor-Aktivitäten wie Radfahren oder Wandern.« Hier finden wir sowohl Kohärenz als auch Kohäsion: Die Antwort baut logisch auf der Information über das sonnige Wetter auf und entwickelt das Thema weiter, während Pronomen und kontextbezogene Wörter verwendet werden, um den Text miteinander zu verbinden. Durch diese Mechanismen gelingt es ChatGPT, kohärente und kohäsive Texte zu erzeugen, die für den Leser verständlich und logisch strukturiert sind.
Das Modell versteht damit noch nicht, was es sagt, sondern kann lediglich sprachlich und inhaltlich sinnvoll reagieren. Es wurde darauf trainiert, die statistischen Beziehungen zwischen Wörtern und Phrasen zu erkennen. Wenn es eine Anfrage erhält, nutzt es dieses »Verständnis«, um Wörter und Sätze zu erzeugen, die in den gegebenen Kontext passen. Dabei kann es neue und kreative Kombinationen von Ideen, Charakteren und Handlungssträngen schaffen, die auf den Mustern basieren, die es während des Trainings gelernt hat.
Ein anderer wichtiger Aspekt der Kreativität von GPT liegt in seiner Fähigkeit, unterschiedliche Stile und Strukturen zu imitieren. Es kann Geschichten, Gedichte oder Dialoge in einer Weise generieren, die für den Leser neu und originell erscheinen. Es kann antworten wie ein Kind oder wie ein Wissenschaftler, es kann einen Rapper, einen bekannt Komiker wie Otto Waalkes oder den Papst imitieren, sogar bekannte Dialekte in begrenztem Umfang imitieren. Dies wird durch die unglaublich große Menge an Texten ermöglicht, mit denen das Modell trainiert wurde, einschließlich literarischer Werke, wissenschaftlicher Artikel und alltäglicher Gespräche.
Während GPT keine bewussten Gedanken oder Absichten hat, nutzt es die Wahrscheinlichkeiten, um Wörter und Sätze zu wählen, die natürlich und kohärent erscheinen. Dieser Mechanismus erlaubt es dem Modell, kreative Inhalte zu erstellen, die oft erstaunlich komplex und einfallsreich sind. Es ahmt die menschliche Kreativität nach, indem es die bereits vorhandenen Daten auf neue und unvorhersehbare Weise kombiniert. GPT nutzt seine fortschrittlichen Mustererkennungsfähigkeiten in Kombination mit den sehr umfangreichen Trainingsdaten, um neue kreative Inhalte zu erstellen. Obwohl es nicht im menschlichen Sinne denken kann, erzeugt es durch wahrscheinlichkeitsbasierte Vorhersagen und das Verständnis sprachlicher Strukturen Texte, die für den Leser kreativ und originell wirken.
ChatGPT kann man alles fragen, aber nicht alle Fragestellungen sind auch wirklich sinnvoll für einen KI-Bot. Wer wissen möchte, wie das Wetter morgen wird, welche steuerlichen Grundfreibeträge im kommenden Jahr gelten oder wie man das perfekte Verbrechen begeht, wird von der Antwort vielleicht enttäuscht sein. Dazu gleich mehr im Abschnitt 1.2.3 »Einschränkungen«. Andere Fragestellungen oder Inhalte sind aber nicht nur unsinnig, sondern sogar potenziell gefährlich – darauf kann man im Umgang mit ChatGPT nicht oft genug hinweisen. Das größte Problem sind persönliche Daten, also z.B. Name und Adresse von realen Personen. Der Algorithmus eines Sprachmodells kennt keine Privatsphäre und kann personenbezogene Informationen nicht sicher von allen anderen unterscheiden. Die Antwort darauf heißt Datenschutz!
Bei der Arbeit mit ChatGPT und anderen LLMs (Large Language Models) sind mehrere Aspekte des Datenschutzes zu beachten, um Privatsphäre und den Schutz personenbezogener Daten zu gewährleisten. Diese Aspekte umfassen die Einhaltung gesetzlicher Bestimmungen, die Umsetzung technischer und organisatorischer Maßnahmen sowie die Sensibilisierung der Nutzer für Datenschutzfragen. Das gilt sowohl für die private Nutzung als auch für den Einsatz in Schulen und Instituten. Was Sie in Bezug auf den Datenschutz bei der Verwendung von KI im Unterricht wissen müssen, lesen Sie detailliert in Kapitel 6.
Hier nochmals in Kürze: Für Privatpersonen ist es ratsam, sich mit den relevanten gesetzlichen Rahmenbedingungen vertraut zu machen, Unternehmen und öffentliche Institutionen sind dazu ohnehin verpflichtet. In der Europäischen Union ist dies insbesondere die Datenschutz-Grundverordnung (DSGVO), die klare Vorgaben für den Umgang mit personenbezogenen Daten macht. Dazu gehört, dass die Verarbeitung personenbezogener Daten nur auf einer rechtmäßigen Grundlage erfolgen darf, wie z.B. der Einwilligung der betroffenen Person oder der Erfüllung eines Vertrags.
Beim Einsatz (privat oder öffentlich) von ChatGPT müssen Sie also unbedingt sicherstellen, dass keine sensiblen oder personenbezogenen Daten ohne ausdrückliche Einwilligung der betroffenen Personen verarbeitet (also im Rahmen eines Prompts an den Chatbot übergeben) werden. Dazu zählen natürlich Informationen wie Name, Adresse, E-Mail, Telefonnummer, aber auch Daten über persönliche Vorlieben, Gesundheit, politische Meinungen oder religiöse Überzeugungen. Es ist unbedingt erforderlich, für KI-Bots grundsätzlich nur anonymisierte oder pseudonymisierte Daten zu verwenden, um das Risiko einer Verletzung der Privatsphäre zu minimieren.
Außerdem sind technische und organisatorische Maßnahmen wichtig und entscheidend, um die allgemeine Datensicherheit zu gewährleisten. Dazu gehört die Implementierung von Verschlüsselungstechnologien, um die Vertraulichkeit der Daten während der Übertragung und Speicherung zu schützen. Ebenso notwendig ist die regelmäßige Überprüfung und Aktualisierung von Sicherheitsprotokollen, um neuen Bedrohungen und Schwachstellen entgegenzuwirken. Denken Sie also unbedingt an wichtige Updates Ihres Betriebssystems sowie des verwendeten Browsers und investieren Sie in einen guten und bewährten Virenscanner, der die meisten Bedrohungen für Sie abwehren kann.
Ein weiterer wichtiger und notorisch vernachlässigter Punkt ist die Datenminimierung. Es sollten stets nur die unbedingt notwendigen Daten erhoben und verarbeitet werden – das Gegenteil ist leider meistens der Fall. Wird generative KI im Unterricht eingesetzt, sollten Schüler vor der Interaktion mit einem Chatbot darauf hingewiesen werden, keine unnötigen persönlichen Informationen preiszugeben. Mittlerweile müssen wir davon ausgehen, dass typische Supportanfragen, die wir im Internet arglos in ein Chatfenster eingeben, erst mal bei einer KI landen und nicht bei einem Support-Agenten wie vermutet.
Schulen und Institute brauchen auf ihrer Webseite eine klare und transparente Datenschutzerklärung, die die Nutzer über die Art, den Umfang und den Zweck der Datenverarbeitung informiert – das gilt unabhängig davon, ob KI eingesetzt wird oder nicht. Schulen und Bildungsinstitute betreiben Netzwerke, die jederzeit von Hackern heimgesucht werden können. Die Administratoren solcher Netzwerke müssen unbedingt Mechanismen zur Protokollierung und Überwachung der Datenverarbeitung implementieren, um im Falle eines Datenvorfalls schnell reagieren zu können. Solche Maßnahmen ermöglichen es, ungewöhnliche Aktivitäten schnell zu erkennen und zu untersuchen sowie gegebenenfalls betroffene Personen und Aufsichtsbehörden rechtzeitig zu informieren. Auch das gilt unabhängig davon, ob KI eingesetzt wird oder nicht.
Zusätzlich sollte regelmäßig geprüft werden, ob die genutzten KI-Modelle und Algorithmen datenschutzkonform sind. Dies umfasst die Bewertung der Datensätze, die zum Trainieren der Modelle verwendet werden, sowie die Überprüfung der Verarbeitungsprozesse auf potenzielle Datenschutzrisiken. Falls erforderlich, sollten Maßnahmen ergriffen werden, um diese Risiken zu mindern.
Für Bildungsorganisationen, die ChatGPT auch intern für ihre Mitarbeiter bereitstellen und nutzen, ist die Schulung und Sensibilisierung der Mitarbeiter im Umgang mit Daten und Datenschutzrichtlinien von großer Bedeutung. Alle Mitarbeiter sollten sich der Risiken und Verantwortlichkeiten bewusst sein und entsprechend handeln, um die Einhaltung der Datenschutzvorschriften zu gewährleisten. Abschließend ist die Zusammenarbeit mit einem Datenschutzbeauftragten oder einem Experten für Datenschutz empfehlenswert. Diese Fachleute können wertvolle Unterstützung bei der Einhaltung der Datenschutzanforderungen bieten und dabei helfen, geeignete Maßnahmen und Richtlinien zu entwickeln und umzusetzen.
Insgesamt erfordert der datenschutzkonforme Umgang mit ChatGPT eine sorgfältige Planung und kontinuierliche Überwachung, um die Sicherheit und Privatsphäre aller betroffenen Personen zu schützen. Durch die Einhaltung der gesetzlichen Vorgaben, die Umsetzung technischer und organisatorischer Maßnahmen sowie die Sensibilisierung der Nutzer und Mitarbeiter können die Risiken aber wirkungsvoll minimiert und die Vorteile dieser Technologie verantwortungsvoll genutzt werden.
