Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Ihr Weg zum Power-Prompting
Mit diesem Praxisbuch lernen Sie alle Techniken, um das Potenzial von ChatGPT und ähnlicher KIs voll auszuschöpfen. Sie erfahren, wie Sie zielgerichtete Prompts schreiben und mit der KI interagieren, um qualitativ hochwertige Ergebnisse zu erhalten, die genau Ihren Anforderungen entsprechen. Ganz gleich, ob Sie ChatGPT im Berufsalltag oder privat einsetzen – dieses Buch führt Sie Schritt für Schritt zum Erfolg.
Systematischer Leitfaden für Einsteiger und Profis
Dieses Buch bietet eine umfassende Einführung in das professionelle Prompt Engineering. Erfahren Sie, wie Sie ChatGPT bestimmte Rollen zuweisen, Kontext und Zielgruppe genau festlegen und differenzierte Antworten erzielen. Diese grundlegenden Techniken sowie das Erstellen von Custom GPTs ermöglichen es Ihnen, die KI gezielt zu steuern und für jeden Anwendungsfall optimale Ergebnisse zu erhalten.
ChatGPT effektiv in der Praxis einsetzen
Über 1.000 praxiserprobte Prompts demonstrieren, wie Sie ChatGPT als mächtiges Werkzeug in Ihren Alltag oder Arbeitsprozess integrieren: vom kreativen Schreiben über Reiseplanung, Sprachen lernen Bewerbungsschreiben und Terminplanung bis hin zu Marketing und Serien-Mails. So sind sie perfekt auf den Einsatz von ChatGPT in der Praxis vorbereitet.
Aus dem Inhalt:Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 433
Veröffentlichungsjahr: 2024
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Ulrich Engelke
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über https://portal.dnb.de/opac.htm abrufbar.
ISBN 978-3-7475-0943-2 1. Auflage 2025
www.mitp.de E-Mail: [email protected] Telefon: +49 7953 / 7189 - 079 Telefax: +49 7953 / 7189 - 082
© 2025 mitp Verlags GmbH & Co. KG
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften.
Dieses E-Book verwendet das EPUB-Format und ist optimiert für die Nutzung mit Apple Books auf dem iPad von Apple. Bei der Verwendung von anderen Readern kann es zu Darstellungsproblemen kommen.
Der Verlag räumt Ihnen mit dem Kauf des E-Books das Recht ein, die Inhalte im Rahmen des geltenden Urheberrechts zu nutzen. Dieses Werk, einschließlich aller seiner Teile, ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Dies gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.
Der Verlag schützt seine E-Books vor Missbrauch des Urheberrechts durch ein digitales Rechtemanagement. Bei Kauf im Webshop des Verlages werden die E-Books mit einem nicht sichtbaren digitalen Wasserzeichen individuell pro Nutzer signiert. Bei Kauf in anderen E-Book-Webshops erfolgt die Signatur durch die Shopbetreiber. Angaben zu diesem DRM finden Sie auf den Seiten der jeweiligen Anbieter.
Lektorat: Janina Vervost Sprachkorrektorat: Christine Hoffmeister Covergestaltung: Christian Kalkert Coverbild: © Cheetose / stock.adobe.com Satz: III-satz, Kiel, www.drei-satz.deelectronic publication: III-satz, Kiel, www.drei-satz.de
Nicht die KI nimmt Ihnen den Arbeitsplatz, sondern ein Mensch, der besser promptet als Sie!
Stellen Sie sich vor, Sie wachen morgens mit unerträglichen Halsschmerzen auf und wohnen in einem Land ohne gut funktionierendes Gesundheitswesen. Sie müssen sich selbst helfen – aber wie? ChatGPT oder Google – welches Tool gibt die besten Ratschläge? Ihre fiktiven Halsschmerzen sind nur ein Beispiel, das Problem können Sie bestimmt mit beiden Hilfsmitteln lösen, irgendwann verschwinden die Schmerzen ja ohnehin von selbst. Mich interessiert an dieser Stelle nur, welche Auswirkungen Ihre Wahl hat und wo der Unterschied in der Herangehensweise der beiden Werkzeuge liegt.
Mit Halsschmerzen gehen Sie im Normalfall einfach zum Arzt und vertrauen seiner Kompetenz und seiner Beratung. Wenn Sie kein Vertrauen in die Kunst der Ärzte haben, müssen Sie selbst einer werden und Medizin studieren. Ein langer und beschwerlicher Weg, aber wenn Sie Ihren Halsschmerzen wirklich tief auf den Grund gehen und alle Zusammenhänge genau verstehen möchten, wohl die einzige Option.
Warum erzähle ich Ihnen das? Dieses Beispiel soll die Unterschiede zwischen ChatGPT und Google verdeutlichen. ChatGPT ist klug, hat profundes medizinisches Wissen und gibt Ihnen schnell eine praktische Antwort, die leicht umsetzbar ist. Wenn Sie verschiedene Ärzte wegen der Halsschmerzen konsultieren, wird die Antwort jedes Mal etwas anders ausfallen, bei ChatGPT ist das ähnlich. Die Suchmaschine Google hingegen funktioniert anders, listet stoisch immer wieder die besten und ausführlichsten Quellen auf den vorderen Rängen und jede Website und jeder Klick führt Sie tiefer in die Materie, bis Sie irgendwann nach Jahren das erste Staatsexamen in Medizin mühelos bestehen würden.
Google ist immer der Weg der maximalen Genauigkeit und erschließt vorhandenes Wissen über Quellen, in denen man sich aber schnell verlieren kann. Für einfache Halsschmerzen reicht jedoch der Hausarzt oder eben ChatGPT, das auch unzählige medizinische Fachtexte studiert hat. Je genauer Sie Arzt oder Chatbot fragen, desto hilfreicher wird die Antwort ausfallen. Lernen Sie hier in diesem Buch, wie Sie durch geschicktes Fragen das Maximum aus ChatGPT und anderen KI-Tools herausholen – nicht nur bei Halsschmerzen!
Viel Spaß beim Lesen und willkommen auf dem einfacheren Weg mit ChatGPT!
Dieser praktische Leitfaden führt Sie Schritt für Schritt von den ersten Schritten mit ChatGPT bis zu ausgefeilten Prompts, die genau die Ergebnisse liefern, die Sie sich wünschen.
Im ersten Teil des Buchs erhalten Sie wichtige Hintergrundinformationen zur generellen Funktionsweise generativer KIs wie ChatGPT und Fragen des Datenschutzes und Urheberrechts. Diejenigen unter Ihnen, die neu im Umgang mit ChatGPT sind, werden Schritt für Schritt von der Anmeldung bis zu den ersten grundlegenden Prompting-Techniken geführt.
Die folgenden Kapitel über grundlegende und fortgeschrittene Strategien für das Prompting im zweiten Teil bilden das Herzstück des Buchs. Sie erfahren, wie Sie Ihre Eingaben so optimieren, dass Sie für jede Situation und jede Anforderung die passenden Ausgaben erhalten. Hierbei bekommen Sie wichtige Prompting-Parameter an die Hand, erfahren, wie Sie ChatGPT dazu bringen, eine bestimmte Rolle einzunehmen und vieles mehr. Schließlich lernen Sie, wie Sie mit Custom GPTs eigene, personalisierte Chatbots erstellen und mit eigenen Daten speisen können.
Im dritten Teil des Buches erwartet Sie eine Vielzahl von Anregungen, wie Sie ChatGPT in Alltag und Beruf gewinnbringend einsetzen können, inklusive zahlreicher Prompts zum Ausprobieren. Die Bandbreite reicht von Fitness und Reiseplanung über Bewerbungsschreiben, E-Mails und Produktivität bis hin zum Lernen von Fremdsprachen.
Insgesamt erwarten Sie mehr als 1.000 Prompts. Lassen Sie sich inspirieren und gestalten Sie Ihren (Berufs-)alltag einfacher und effektiver mit den Anleitungen aus diesem Buch und der Hilfe von ChatGPT.
Ulrich Engelke, Jahrgang 1963, hat ein erstes Staatsexamen in Germanistik und Anglistik sowie einen Magister mit Schwerpunkt Linguistik. Nach einem kurzen Ausflug ins Verlagswesen und freiberuflicher Tätigkeit als Fachautor gründete er eine Internetagentur für Online-Marketing mit den Schwerpunkten SEO und SEA. Heute arbeitet er als freier Unternehmensberater und bietet individuelle KI-Schulungen sowie ChatGPT-Workshops an:
https://der-ki-trainer.de/
Kapitel 1
Wie funktionieren KI-Chatbots?
Kapitel 2
Datenschutz, Urheberrecht und Einschränkungen
Kapitel 3
Erste Schritte mit ChatGPT
Ein Praxishandbuch wie dieses sollte sich nicht zu lange mit der Theorie aufhalten. Dennoch ist die Frage, wie KI-Chatbots eigentlich funktionieren, richtig spannend und nicht nur für technisch interessierte Zeitgenossen relevant.
Ein Chatbot alias Large Language Model (LLM) ist ein KI-Modell, das auf einer riesigen Menge an Textdaten trainiert wurde, um natürliche Sprache zu verstehen und zu generieren. Es kann Texte verfassen, Fragen beantworten und viele sprachbasierte Aufgaben unterstützen. KI und maschinelles Lernen haben eine Revolution eingeläutet, von der erst spätere Generationen wissen werden, welche tiefgreifenden Veränderungen sie ausgelöst hat. Klar ist aber längst, dass die Veränderungen bahnbrechend sind und dass die Auswirkungen auf unser Leben ebenso vielfältig wie unabsehbar sind.
Ich lade Sie also ein zu einer kurzen Reise zurück in die Geschichte der künstlichen Intelligenz und zu deren Grundlagen. Es geht um ein Verständnis darum, wie KI mit einem ganz neuen Ansatz, Computerprogramme und Algorithmen zu erstellen, die Informatik förmlich auf den Kopf gestellt hat. Anschließend stelle ich Ihnen Sam Altman vor und seine Firma OpenAI und natürlich die Sprachmodelle der GPT-Familie. Ich möchte in diesem ersten Kapitel nicht weniger versuchen, als Ihnen zu zeigen, was die KI-Welt im Innersten zusammenhält. Wenn Theorie und Geschichte nicht so Ihr Ding sind, blättern Sie einfach schnell zum nächsten Kapitel weiter.
KI als Thema wirft uns notgedrungen immer wieder auf die Frage zurück, was Intelligenz eigentlich ist. Das ist gar nicht so einfach zu beantworten. Auf jeden Fall ist die Frage nach der Intelligenz eine, an der sich unterschiedliche Fächer und Forschungsrichtungen seit vielen Jahren abarbeiten und noch zu keiner gemeinsamen und allgemeingültigen Definition gefunden haben. Intelligenz kann man als ein komplexes und vielschichtiges Konzept beschreiben, das sich auf die Fähigkeit von Individuen bezieht, Informationen zu verarbeiten und darauf basierend zu handeln. Wir können also lernen und das Gelernte sinnvoll anwenden und immer weiterentwickeln, bis wir Dinge tun, die wir so niemals gelernt haben. Das wäre meine zumindest vorläufige und grundlegende Definition von natürlicher, menschlicher Intelligenz.
Das eigentlich Faszinierende daran ist der Transfer, also unsere Fähigkeit, Probleme zu lösen, die teilweise weit über das Gelernte hinausgehen. Dass wir unser Wissen ganz offensichtlich an immer neue Situationen anpassen und dort erfolgreich anwenden, ist ein ganz wichtiger Teil unserer Intelligenz. Um zu verstehen, wie das möglich ist, müssen wir uns die ganze Palette unserer kognitiven Fähigkeiten möglichst detailliert ansehen, einschließlich des logischen Denkens, der kreativen Problemlösungskompetenz, der gezielten Wahrnehmungsfähigkeit, des Verständnisses von Zusammenhängen, der Fähigkeit zur Kommunikation und des Lernens aus Erfahrungen. Aus diesen und anderen Grundfertigkeiten entstehen neue und immer komplexere Fertigkeiten: Die Fähigkeit, aus der Interaktion mit der Umwelt zu lernen, immer komplexere Konzepte zu erfassen, effektiv zu planen und zu handeln sowie kreativ und innovativ auf immer neue Herausforderungen zu reagieren.
Die Urväter der KI waren von der natürlichen, menschlichen Intelligenz auf jeden Fall so fasziniert, dass sie diese unsere Fähigkeiten auf Maschinen übertragen und Computern das selbstständige Lernen und Denken beibringen wollten. Die Ursprünge der Künstlichen Intelligenz sind also stark mit dem Streben verbunden, maschinelle Systeme zu schaffen, die ähnliche kognitive Fähigkeiten wie der Mensch aufweisen. Die Urväter der KI, darunter Wissenschaftler wie Alan Turing, John McCarthy, Marvin Minsky, Allen Newell und Herbert A. Simon, waren von der Komplexität und Vielseitigkeit der menschlichen Intelligenz tief beeindruckt und inspiriert. Sie wollten verstehen, wie Intelligenz funktioniert, und diese Erkenntnisse nutzen, um Maschinen zu entwickeln, die ähnliche Aufgaben ausführen können. Heute ist Künstliche Intelligenz – oder im englischen Original Artificial Intelligence (AI) – der Überbegriff für durch Maschinen erbrachte, menschenähnliche Intelligenzleistungen.
Wie immer ist die Entwicklung neuer Technologien eng mit der Leistung ihrer Pioniere und bestimmten Ereignissen verbunden. AlanTuring gehört zu den ersten Visionären, der die Frage stellte, ob Maschinen denken können. Der berühmte Turing-Test war damals (1950) eher eine Idee als ein Test, der mit den vorhandenen Programmen schon hätte durchgeführt werden können: Wenn eine Maschine in der Lage ist, in einem Gespräch nicht von einem Menschen unterscheidbar zu sein, könnte sie als intelligent betrachtet werden und hätte damit den Turing Test bestanden.
Die Dartmouth-Konferenz von 1956 gilt als die Geburtsstunde der KI als eigenständiges Forschungsfeld der Informatik, hier wurde der Begriff Artificial Intelligence (AI) geprägt und die Grundlage für die zukünftige Forschung in diesem Bereich gelegt. Eine Vielzahl führender Köpfe kam auf dieser Konferenz zusammen.
JohnMcCarthy ist eine Schlüsselfigur in der Geschichte der Künstlichen Intelligenz, er gilt vielen sogar als der eigentliche Vater der KI. Zumindest hat er schon während der Vorbereitung der Dartmouth-Konferenz den Begriff Künstliche Intelligenz geprägt. Außerdem entwickelte McCarthy 1958 die Programmiersprache LISP, die zur bevorzugten Sprache in der KI-Forschung wurde und es in einigen Bereichen bis heute ist. McCarthy hat bedeutende Beiträge in mehreren Kernbereichen der KI verfasst, war ein Vorreiter bei der Entwicklung von Theorien und Modellen, die es Computern ermöglichen sollen, Alltagswissen zu nutzen, das für Menschen selbstverständlich ist. McCarthy arbeitete sogar bereits an der Konzeptualisierung von autonomen Systemen, einschließlich autonomer Fahrzeuge, und entwickelte Technologien, wie sie heute in selbstfahrenden Autos zum Einsatz kommen.
MarvinMinsky war ein weiterer Pionier und gilt als der einflussreichste Theoretiker im Forscherfeld. Er gründete zusammen mit John McCarthy das MIT Artificial Intelligence Laboratory, das zu einem der weltweit führenden Zentren für KI-Forschung wurde. Dieses Labor zog viele talentierte Forscher an und war der Geburtsort zahlreicher bahnbrechender Ideen und Technologien im Bereich der KI. Minsky entwickelte die sogenannte Frametheorie, die ein Konzept zur Wissensrepräsentation in KI-Systemen darstellt. Minskys Buch Society of Mind ist ein bahnbrechendes Werk, das eine Theorie der menschlichen Intelligenz und des Bewusstseins als Netzwerk aus vielen kleinen und einfachen Prozessen bzw. Agenten entwirft. Diese Idee hat die Forschung in den Bereichen kognitive Wissenschaften und KI beeinflusst, insbesondere im Hinblick auf das Verständnis davon, wie komplexe geistige Prozesse aus simpleren Interaktionen entstehen können. Minsky hat Generationen von Studenten beeinflusst, die später zu führenden Wissenschaftlern und Technikern in der KI und verwandten Feldern wurden.
NathanielRochester arbeitete bei IBM und war einer der Architekten des IBM 701, des ersten wissenschaftlichen Computers des Unternehmens. Seine Arbeit trug wesentlich dazu bei, die technische Basis für spätere Entwicklungen in der KI zu ermöglichen. Rochester war auch an der Entwicklung eines der ersten Programme beteiligt, das als KI-Experiment angesehen werden kann. Das Programm wurde auf dem IBM 704-Computer implementiert und zielte darauf ab, einfache algebraische Probleme zu lösen.
ClaudeShannon revolutionierte das Verständnis von Datenübertragung, -verarbeitung und -speicherung. Seine Grundprinzipien der Informationstheorie sind für viele Aspekte der KI, wie Datenkompression und Fehlerkorrektur in maschinellen Lernsystemen, von großer Bedeutung. Shannon war einer der ersten, der die Möglichkeiten von Computern zum Spielen von Spielen wie Schach erforschte. Seine Arbeiten in den 1950er-Jahren, insbesondere seine Strategien zur Schachprogrammierung, gelten als Pionierleistungen und beeinflussten die Entwicklung von KI-Algorithmen im Bereich der Spiele und Entscheidungstheorien.
Die führenden Köpfe der Dartmouth-Konferenz und ihre unterschiedlichen Schwerpunkte machen uns begreiflich, wie viele unterschiedliche Forschungsansätze nötig waren und an einem Ort zusammenkommen mussten, damit wir heute die Früchte ihrer visionären Gedanken und ambitionierten Bemühungen ernten können.
Nach der Dartmouth-Konferenz als Geburtsstunde der Künstlichen Intelligenz entwickelte sich die Forschung in mehreren Phasen weiter. Hier sind die wichtigsten Etappen und eine kurze Beschreibung der wesentlichen Entwicklungen von 1956 bis heute:
Die ersten Jahrzehnte der KI-Forschung konzentrierten sich stark auf symbolische Methoden und Expertensysteme, die Systeme basierten auf Logik und regelbasierten Entscheidungsprozessen, die menschliches Wissen speichern und versuchen, komplexe Problemlösungsfähigkeiten zu imitieren. Zu Beginn herrschte großer Optimismus über die Möglichkeiten der KI und die Forscher gingen davon aus, dass bedeutende Fortschritte schnell erreicht werden könnten. Allerdings stießen sie bald auf erhebliche technische und konzeptionelle Herausforderungen, die das Fortschrittstempo verlangsamten.
Der (erste) KI-Winter ist geprägt von allgemeiner Ernüchterung und unerwarteten Finanzierungsproblemen. Aufgrund der enttäuschten Erwartungen und der begrenzten Fortschritte kam es in den 1970er- und 1980er-Jahren zu einem Rückgang des Interesses für die KI-Forschung und einer zunehmend unsicheren Finanzierung. Trotz der allgemeinen Stagnation gab es in einigen spezifischen Bereichen Fortschritte, wie z.B. in der Entwicklung von Algorithmen für das maschinelle Lernen und in der Robotik.
In den 1980er-Jahren erlebte die KI einen erneuten Aufschwung durch den Einsatz von Expertensystemen in der Industrie. Expertensysteme zielten darauf ab, das Wissen und die Entscheidungsfähigkeiten menschlicher Experten in einem spezifischen, eng abgegrenzten Bereich nachzuahmen. Diese Systeme zogen deduktive Schlussfolgerungen und trafen Entscheidungen auf Basis einer komplexen Wissensbasis aus Fakten und Regeln. An der Stanford University entstanden mehrere Programme in den Bereichen der medizinischen Diagnostik und chemischen Analyse: MYCIN wurde entwickelt, um bakterielle Infektionen zu diagnostizieren und geeignete Antibiotika-Behandlungen vorzuschlagen. DENDRAL half Chemikern bei der Interpretation von Massenspektren, um die Struktur organischer Moleküle zu bestimmen. Damit waren KI-Programme erstmals in der Lage, komplexe wissenschaftliche Probleme zu lösen.
In diese Zeit fällt auch die Wiederentdeckung und Weiterentwicklung neuronaler Netze, die für den eigentlichen Durchbruch im maschinellen Lernen verantwortlich sind und zu bedeutsamen praktischen Fortschritten führten. Künstliche neuronale Netze sind Computer-Modelle, die von der Struktur und Funktionsweise des menschlichen Gehirns inspiriert sind. Ein neuronales Netz besteht aus mehreren Schichten von Knoten (Neuronen), die miteinander verbunden sind. Hinzu kamen neue Lernalgorithmen wie das Backpropagation-Verfahren, mit denen die Gewichte in einem neuronalen Netz angepasst werden konnten. Gewichte in einem neuronalen Netz sind die Werte, die die Stärke der Verbindung zwischen einzelnen Neuronen bestimmen. Sie beeinflussen, wie stark ein Eingangssignal weitergeleitet wird und sind entscheidend für das Lernen des Netzes. Das alles ermöglichte jetzt das Training tiefer neuronaler Netzwerke, die komplexe Muster in sehr großen Datensätzen erkennen konnten.
Die 2000er-Jahre markieren zwei wichtige Entwicklungen, die zu den eigentlichen Katalysatoren der Künstlichen Intelligenz wurden: Mit der rasanten Verbreitung des Internets und dem immer schneller wachsenden World Wide Web bekamen Forscher einfachen Zugang zu riesigen Datenmengen – insbesondere zu Texten und Bildern. Hinzu kam eine geradezu explosionsartige Entwicklung der Rechenleistung von Computern: Große Fortschritte in der Halbleitertechnik, die Entwicklung von Mehrkernprozessoren, immer größere Speicherkapazitäten mit schnelleren Zugriffsgeschwindigkeiten, leistungsstarke Grafikkarten (GPUs) und die skalierbare Rechenleistung des Cloud Computings haben der datengetriebenen KI den entscheidenden Schub versetzt. Komplexe Algorithmen konnten nun auf riesigen Datensätzen mit gigantischer Rechenpower trainiert werden, was zu beeindruckenden Ergebnissen in verschiedenen Anwendungsbereichen führte. Die Nutzung tiefer neuronaler Netze (Deep Learning) hat zu bahnbrechenden Fortschritten in Bereichen wie Bilderkennung, Sprachverarbeitung und Spielen wie AlphaGo geführt.
Gerade in den letzten Jahren hat sich das Tempo nochmals vervielfacht, KI flutet unser Leben wie ein mächtiger Tsunami: Apple, Microsoft, Google und Amazon haben jeweils eigene Sprachassistenten entwickelt und über mobile Endgeräte in unseren Alltag eingeschleust. Andere KI-Technologien sind mittlerweile in vielen Bereichen des täglichen Lebens präsent, neben Sprachassistenten sind selbstfahrende Autos Realität geworden, medizinische Diagnosen nutzen KI und personalisierte Empfehlungen auf Facebook, YouTube und Spotify sind für uns ganz selbstverständlich.
Aber wie wurde das alles, noch dazu in so kurzer Zeit, möglich? Was unterscheidet die KI so grundlegend von anderen Zweigen der Informatik? Welche Methoden und Prinzipien machen den entscheidenden Unterschied? Um das herauszufinden, müssen wir uns mit dem Bereich Machine Learning (ML) befassen. Machine Learning ist ganz allgemein gesprochen ein Teilbereich der künstlichen Intelligenz, der sich mit der Entwicklung von Algorithmen und statistischen Modellen beschäftigt, die Computersysteme in die Lage versetzen, aus Daten zu lernen und Muster zu erkennen, ohne explizit für genau diese Muster programmiert zu sein.
Machine Learning (oder künstliches Lernen ganz allgemein) wird üblicherweise in drei grundlegende Konzepte bzw. Methoden unterteilt: überwachtes Lernen (Supervised Learning), unüberwachtes Lernen (Unsupervised Learning) und bestärkendes Lernen (Reinforcement Learning).
Überwachtes Lernen liegt immer dann vor, wenn ein Algorithmus aus einem vorbereiteten Trainingsdatensatz lernt, der neben den Eingabedaten auch schon die entsprechenden Ausgabewerte enthält. Der einfachste und am häufigsten zitierte Fall zur Erklärung des überwachten Lernens ist ein Algorithmus, der Bilder von Hunden und Katzen unterscheiden kann. Wir nehmen dazu einen Datensatz mit 100 Bildern, 50 Hundebilder und 50 von Katzen. Typischerweise würde man jetzt 70 Bilder für das Training verwenden und dem Algorithmus zu jedem Bild die Information geben, um welches der beiden Tiere es sich auf dem gezeigten Bild handelt. Ist das Training abgeschlossen, prüft man mit den restlichen 30 Bildern, wie gut die Unterscheidung in der Praxis schon funktioniert. Ist das Ergebnis noch nicht zufriedenstellend und die Fehlerrate zu hoch, kann der Algorithmus durch zusätzliches Training verbessert werden. Weitere Bilder müssen bereitgestellt und klassifiziert (gelabelt) werden, solche gelabelten Daten sind die Voraussetzung für überwachtes Lernen. In unserem Fall müssten mindestens weitere 100 Bilder von Hunden und Katzen einer der beiden Arten zugeordnet werden. Der Aufwand dafür ist zwar überschaubar, aber die Fähigkeiten des so entstandenen Programms sind natürlich auch sehr begrenzt.
Reale Anwendungsbeispiele des überwachten Lernens bringen aber schon ziemliche komplexe Programme mit hohem praktischen Nutzen hervor. Der Bayes-Filter (auch bekannt als Naive Bayes Classifier) ist eine weit verbreitete Methode zur Klassifikation von E-Mails als Spam oder Nicht-Spam. Statt Tierbildern legt man dem Algorithmus reale Mails aus dem eigenen Postfach vor und kennzeichnet alle, die wir als Spam einstufen und eigentlich nicht lesen wollen. Daraus lernt der Algorithmus eine individuelle und recht zuverlässige Klassifikation von E-Mails als Spam oder Nicht-Spam. Eine andere KI-Anwendung kann den Kaufpreis eines Hauses, basierend auf typischen Merkmalen wie Baujahr, Quadratmeterzahl, Anzahl der Schlafzimmer usw., vorhersagen. Überwachtes Lernen ist die Grundlage von Algorithmen zur Gesichtserkennung oder um vorherzusagen, ob ein Kunde ein Produkt kauft – basierend auf dem Verhalten anderer, ähnlicher Kunden. Auf der Basis medizinischer Daten kann damit die Wahrscheinlichkeit eines Herzinfarkts für einen gegebenen Patienten berechnet und vorausgesagt werden. Die viel zitierte Kreditrisikobewertung für eine Bank ist ebenfalls eine auf überwachtem Lernen basierte Anwendung, um die Wahrscheinlichkeit vorherzusagen, mit der ein Kreditnehmer seine Schulden zurückzahlen wird oder ob die Forderung ausfällt.
Nicht alle Daten können vor dem Training aufbereitet und gelabelt werden: erstens, weil der Aufwand zu hoch ist und die Datenmenge dadurch immer begrenzt bleibt, und zweitens oft gar noch nicht bekannt ist, welche Merkmale für eine Kennzeichnung überhaupt relevant sind. Unüberwachtes Lernen ist eine Methode des maschinellen Lernens, bei der der Algorithmus auf einen Datensatz ohne vorherige Kennzeichnung der Daten trainiert wird. Statt explizit zu wissen, welche Daten zu welchen (noch unbekannten) Kategorien gehören, versucht der Algorithmus, Muster und Strukturen in den Daten selbst zu erkennen. Ein klassisches Beispiel für unüberwachtes Lernen ist das Clustering, bei dem ähnliche Datenpunkte in Gruppen oder Clustern zusammengefasst werden.
Stellen Sie sich vor, Sie haben einen Datensatz mit 1.000 Bildern von Tieren, darunter Hunde, Katzen, Vögel und Fische, aber ohne zu wissen, welche Bilder zu welchen Tieren gehören. Ein Clustering-Algorithmus wie K-Means könnte verwendet werden, um diese Bilder in Gruppen zu unterteilen, basierend auf ihren Ähnlichkeiten. Der Algorithmus könnte beispielsweise feststellen, dass es vier Hauptgruppen gibt und diese entsprechend kennzeichnen. Wir wissen jedoch nicht im Voraus, dass eine Gruppe Hunde und eine andere Katzen enthält; das muss durch Interpretation der resultierenden Cluster erfolgen.
Ein weiteres Beispiel für unüberwachtes Lernen ist das Vereinfachen von großen Datensätzen für die Analyse von Kunden in einem Supermarkt, über die sehr viele unterschiedliche Daten gesammelt wurden:
Alter
Geschlecht
Wohnort
Einkommen
Einkaufsgewohnheiten (z.B. Häufigkeit der Einkäufe, bevorzugte Wochentage)
Gekaufte Produkte (z.B. Obst, Gemüse, Fleisch, Milchprodukte)
Durchschnittlicher Einkaufswert
Zahlungsmethode (z.B. bar, Kreditkarte)
Das sind sehr viele Informationen und es ist schwierig, einen Überblick zu behalten. Mit Techniken wie der Hauptkomponentenanalyse (PCA) oder t-SNE kann man diese vielen Daten auf einige wenige wichtige Merkmale reduzieren, die trotzdem die wichtigsten Unterschiede zwischen den Kunden zeigen. Zum Beispiel könnte man die Daten auf die drei Merkmale Einkaufsgewohnheiten, Alter und geografische Lage reduzieren. Das macht es einfacher, Muster zu erkennen, wie z.B., dass Kunden aus bestimmten Wohngebieten häufiger einkaufen oder dass junge Kunden andere Produkte bevorzugen als ältere Kunden. So kann der Supermarkt seine Marketingstrategien besser anpassen und gezielt auf die Bedürfnisse verschiedener Kundengruppen eingehen.
Die Vorteile des Unüberwachten Lernens
Weil Daten vorher nicht mehr manuell aufbereitet werden müssen, können wir beim nichtüberwachten Lernen auf wesentlich größere (und theoretisch unbegrenzte) Datenmengen zurückgreifen. Unüberwachtes Lernen kann dazu beitragen, neue und unentdeckte Muster oder Gruppen innerhalb der Daten zu identifizieren, um Daten zu bereinigen, zu gruppieren oder zu reduzieren, was die Effizienz und Genauigkeit von Modellen des überwachten Lernens verbessern kann.
Typische Anwendungen des unüberwachten Lernens:
Kundensegmentierung: Einteilung von Kunden in Gruppen für gezieltes Marketing.
Anomalieerkennung: Erkennung von Betrug oder Fehlern in Finanztransaktionen oder Netzwerksicherheit.
Marktforschung: Entdeckung von Mustern und Trends in großen Datensätzen zur Unterstützung der Produktentwicklung.
Dokumenten- oder Textklassifikation: Gruppierung von Dokumenten basierend auf ihrem Inhalt in Themen oder Kategorien, beispielsweise in Bibliotheken.
Datenvisualisierung: Visualisierung komplexer Datensätze in vereinfachter Form, um bessere Geschäftsentscheidungen zu treffen.
Bildanalyse und Gesichtserkennung: Erkennung von Mustern in Bilddaten.
Empfehlungssysteme: Erstellung personalisierter Empfehlungen für Videobeiträge, Filme und Produkte wie bei YouTube, Netflix und Amazon.
Bestärkendes Lernen ist die dritte grundlegende Methode des maschinellen Lernens, die durch kontinuierliches Feedback immer genauere Anpassungen und Optimierungen ermöglicht. Algorithmen und Maschinen lernen, optimale Entscheidungen zu treffen, um komplexe Aufgaben zu bewältigen. Hierzu lernt ein Agent durch Interaktion mit seiner Umgebung, wie er bestimmte Aufgaben ausführen kann, um eine Belohnung zu maximieren. Anders als beim überwachten Lernen, wo der Algorithmus anhand von gelabelten Daten trainiert wird, oder beim unüberwachten Lernen, wo der Algorithmus Muster in unstrukturierten Daten erkennt, basiert das bestärkende Lernen auf dem Prinzip vonVersuch und Irrtum. Der Agent erhält Feedback in Form von Belohnungen, ausbleibenden Belohnungen oder gar Strafen und passt sein Verhalten entsprechend an. Ein einfaches Beispiel für bestärkendes Lernen ist das Training eines Saugroboters, der lernen soll, wie man durch ein Wohnzimmer navigiert. Der Roboter erhält eine Belohnung, wenn er das Ziel erreicht, und keine Belohnung, wenn er gegen eine Wand stößt. Anfangs wird der Roboter zufällige Bewegungen ausführen, aber mit der Zeit lernt er, welche Aktionen ihn näher zum Ziel der Belohnung bringen und welche nicht.
Roboter mögen keine Schokolade
Wenn Sie sich auch schon Gedanken darüber gemacht haben, womit man einen Staubsauger mit KI-Unterstützung belohnen kann: mit numerischen Belohnungspunkten! Der Roboter erhält Punkte oder einen numerischen Wert als Belohnung, wenn er erfolgreich ein Ziel erreicht, wie z.B. einen bestimmten Bereich vollständig zu reinigen oder effizient von einem Punkt zum anderen zu navigieren, ohne irgendwelche Hindernisse zu berühren. Roboter belohnt man eben anders als Menschen!
Ein anderes Beispiel sind Computerprogramme, die lernen, Spiele wie Schach oder Go zu spielen. Hier wird der Agent (das Programm) durch die Rückmeldungen (Gewinn oder Niederlage) trainiert. Der Algorithmus analysiert verschiedene Spielzüge und deren Ergebnisse, um Strategien zu entwickeln, die seine Gewinnchancen erhöhen.
Weitere typische Anwendungen des bestärkenden Lernens sind sehr vielfältig, viele finden sich in der Robotik. Es ermöglicht es Robotern in dynamischen und komplexen Umgebungen wie in der Produktion oder bei Rettungseinsätzen, ihre Aufgaben immer effektiver und sicherer ausführen. Sie lernen, sich an neue Situationen anzupassen und Aufgaben effizient zu erledigen. Bestärkendes Lernen hilft bei der Optimierung beliebiger Prozesse und kann die Steuerung von Verkehrsflüssen erheblich verbessern: Der Agent lernt, wie er Ampelschaltungen optimieren kann, um den Verkehrsfluss zu maximieren und Staus zu minimieren.
In der Finanzwelt wird bestärkendes Lernen zur Entwicklung von Handelsalgorithmen eingesetzt werden, die optimale Entscheidungen treffen, um Gewinne zu maximieren und Verluste zu minimieren. Der Algorithmus lernt aus historischen Daten und passt seine Handelsstrategien, basierend auf den Ergebnissen früherer Entscheidungen, kontinuierlich an. Im Gesundheitswesen kann bestärkendes Lernen Behandlungspläne optimieren, indem es die Wirksamkeit verschiedener Therapien kontinuierlich analysiert.
Machine Learning (ML) und Deep Learning (DL) sind beides Teilbereiche der Künstlichen Intelligenz, unterscheiden sich jedoch in ihrer Komplexität und Anwendungsweise. Deep Learning basiert auf künstlichen neuronalen Netzwerken, insbesondere auf tiefen neuronalen Netzwerken mit sehr vielen Schichten, ähnlich unserem Gehirn. Damit ist DL geeignet, hochkomplexe und abstrakte Muster in sehr großen Datenmengen zu erkennen und geht weit über die Möglichkeiten des Machine Learnings hinaus. Es wird für komplexere Anwendungen wie Bild- und Spracherkennung, automatische Übersetzung, autonomes Fahren und die Generierung von Texten oder Bildern wie bei ChatGPT und DALL·E eingesetzt.
Ein weiterer Unterschied zwischen Machine Learning und Deep Learning liegt in der Komplexität und der zu verarbeitenden Datenmenge, wobei DL sehr große Datenmengen verarbeiten kann, wenn die dafür erforderliche Rechenleistung zur Verfügung steht. Wo beim ML Merkmale teilweise noch manuell ausgewählt werden müssen, ist beim DL der Prozess der Merkmalsextraktion komplett automatisiert, da neuronale Netzwerke selbst relevante Merkmale aus den Rohdaten lernen und anwenden können. DL wird daher bevorzugt für Aufgaben eingesetzt, die hochdimensionale und komplexe Daten erfordern, wie Bilder, Videos und besonders auch Sprache. Praktisch alle Leuchtturmanwendungen der KI sind das Ergebnis von Deep Learning Algorithmen, die mit riesigen Datensätzen und einer enormen Rechenleistung erstellt bzw. trainiert wurden.
DL-Modelle wie Convolutional Neural Networks (CNNs) werden verwendet, um Bilder zu erkennen und zu klassifizieren, z.B. in der medizinischen Bildgebung zur Erkennung von Tumoren. Recurrent Neural Networks (RNNs) und Transformer-Modelle (wie die gesamte GPT-Familie) basieren ebenfalls auf DL und werden für Aufgaben der natürlichen Sprachverarbeitung (NLP), in der maschinellen Übersetzung, der Textgenerierung und für die Stimmungsanalyse eingesetzt.
OpenAI wurde im Dezember 2015 von ElonMusk, SamAltman und anderen gegründet. Die Organisation hatte das Ziel, sichere und nützliche künstliche Intelligenz für alle zu entwickeln und ihre Forschungsergebnisse offen zugänglich zu machen. Die Vision war, dass KI das menschliche Leben verbessern kann, wenn fortschrittliche Technologien zum Wohle der gesamten Menschheit und nicht nur zur Verfolgung kommerzieller Interessen eingesetzt werden. Als unabhängige Forschungsorganisation, die sich auf die Entwicklung von KI-Technologien konzentriert, die transparent und kooperativ mit anderen Forschungseinrichtungen und der Öffentlichkeit geteilt werden, wollte man bei OpenAI die Chancen und Herausforderungen der KI besser verstehen, für alle verständlich machen und im Interesse der Allgemeinheit handhaben.
Der Ausstieg von Elon Musk bei OpenAI
Elon Musk, einer der Mitgründer von OpenAI, trat im Jahr 2018 aus dem Vorstand der Organisation zurück. Der Ausstieg wurde offiziell mit potenziellen Interessenskonflikten begründet, da Tesla, das Unternehmen, bei dem Musk CEO ist, zunehmend eigene KI-Forschung und -Entwicklung betrieb, insbesondere im Bereich des autonomen Fahrens. Es wurde befürchtet, dass seine Rolle bei beiden Organisationen zu Interessenskonflikten führen könnte. Über mögliche andere Gründe wie ein persönliches Zerwürfnis zwischen Musk und Altman wurde sehr viel spekuliert, wirklich gesichert ist nichts davon. Trotz seines Rücktritts als Vorstandsmitglied blieb Musk OpenAI weiterhin als bedeutender Unterstützer und Spender verbunden.
Die Entstehung und Entwicklung von ChatGPT bei OpenAI ist das Ergebnis fortlaufender Forschung und Innovation im Bereich der Künstlichen Intelligenz und des Natural Language Processing (NLP). Zentrales Projekt der Organisation war die Entwicklung der Generative Pre-trained Transformer (GPT) als leistungsstarke, generative Sprachmodelle. GPT-1, das erste Modell, wurde schon 2018 veröffentlicht und zeigte bereits die Fähigkeit, menschenähnlichen Text zu generieren. In Fachkreisen galt es als bedeutender Schritt in der NLP-Forschung und demonstrierte schon damals das Potenzial von vortrainierten Sprachmodellen auf eindrucksvolle Weise. 2019 folgte mit GPT-2 eine erheblich größere und leistungsfähigere Version, die beeindruckend kohärente und kontextuelle Texte generieren konnte. Aufgrund von Bedenken über den möglichen Missbrauch entschied sich OpenAI zunächst, die vollständige Version nicht zu veröffentlichen.
Der eigentliche Durchbruch und eine stärkere Wahrnehmung in der Öffentlichkeit kam 2020 mit GPT-3, das mit 175 Milliarden Parametern einen weiteren immensen Sprung darstellte. Parameter in einem neuronalen Netz sind die Gewichte und Bias-Werte, die während des Trainings angepasst werden, um das Modell zu optimieren und genaue Vorhersagen zu ermöglichen. Dieses Modell konnte sehr detaillierte und nuancierte Texte generieren, was seine Anwendungen in verschiedenen Bereichen erheblich erweiterte. Die Leistungsfähigkeit von GPT-3 ermöglichte die Entwicklung von ChatGPT, einer speziell auf Dialoge und interaktive Kommunikation ausgerichteten Anwendung. ChatGPT beeindruckte durch seine Fähigkeit, natürliche und sinnvolle Gespräche zu führen, und fand schnell breite Anwendung in Bereichen wie Kundenservice, Bildung und kreativer Inhaltserstellung.
Die Kommerzialisierung von OpenAI begann im Jahr 2019 und war ein strategischer Schritt, um die langfristige Finanzierung und Entwicklung der KI-Forschung zu sichern. OpenAI kündigte die Gründung von OpenAI LP an, als kapitalisierte Einheit innerhalb der Organisation. Die Entwicklung fortschrittlicher KI-Technologien, insbesondere großer Modelle wie GPT-3, erfordert immense Rechenressourcen und finanziellen Aufwand. Um diese Projekte nachhaltig finanzieren zu können, war es wohl notwendig, zusätzliche Einnahmequellen zu erschließen. Ein weiterer Grund war der Wunsch nach schnellerem Wachstum und Innovation. Durch den Zugang zu externen Investitionen konnte OpenAI seine Forschung und Entwicklung erheblich beschleunigen.
Das Capped-Profit-Modell
OpenAI LP ist eine begrenzt gewinnorientierte Einheit innerhalb von OpenAI, die im Jahr 2019 gegründet wurde. Die Struktur von OpenAI LP basiert auf einem Capped-Profit-Modell, das darauf abzielt, Investoren anzuziehen und gleichzeitig die gemeinnützigen Ziele von OpenAI zu bewahren. Dieses Modell begrenzt die Gewinne auf das 100-Fache der Investition, um sicherzustellen, dass die Gewinne nicht übermäßig werden und die Mission der gemeinnützigen Mutterorganisation unterstützt wird. Durch die Kommerzialisierung konnte OpenAI externe Investitionen anziehen und Partnerschaften mit führenden Technologieunternehmen eingehen. Ein prominentes Beispiel hierfür ist die Zusammenarbeit mit Microsoft, das eine Milliarde Dollar in OpenAI investierte und die Integration von OpenAI-Technologien in seine Cloud-Plattform Azure förderte.
Durch diese Struktur konnte OpenAI eine gewisse Balance zwischen der Sicherstellung ausreichender Finanzierung und der Aufrechterhaltung seiner ethischen und gemeinnützigen Ziele finden. Die Kommerzialisierung ermöglicht es OpenAI, seine Mission in begrenztem Maße weiterzuverfolgen und gleichzeitig die Ressourcen zu haben, um in der sich schnell entwickelnden KI-Landschaft führend zu bleiben.
Diese eingangs gestellte Frage haben wir noch gar nicht beantwortet und ganz genau scheinen es nicht einmal die Entwickler zu wissen – der Weg zu den ersten KI-Chatbots ist gepflastert mit Versuch und Irrtum. Offenbar wenden KI-Entwickler dieselben Prinzipien an, mit denen sie auch ihre neuronalen Netze trainieren, indem sie immer neue Ansätze probieren und die besten weiterverfolgen. Der Entwicklungsprozess ist dadurch nicht vollständig kontrollierbar, was die Systeme umso menschenähnlicher macht.
KI-Chatbots funktionieren durch die Kombination von verschiedenen Technologien und Prozessen, die es ihnen ermöglichen, menschenähnliche Gespräche zu führen. ChatGPT und andere Chatbots funktionieren auf eine ganz ähnliche Weise, hier ist ein kurzer Überblick über den Prozess, möglichst allgemeinverständlich erklärt:
Der erste Schritt ist das Verstehen der Benutzereingabe – also des Prompts. Dies geschieht durch Natural Language Processing (NLP), einer Technologie, die es dem Chatbot ermöglicht, die Sprache des Nutzers zu analysieren und zu interpretieren. NLP zerlegt den eingegebenen Text in einzelne Sätze, Wörter und Tokens und bestimmt deren Bedeutung anhand des Kontexts. Nachdem die Eingabe verarbeitet wurde, muss der Chatbot die Absicht des Nutzers dahinter erkennen, ohne diese sogenannte Intent-Erkennung würden teilweise unsinnige Ergebnisse herauskommen. Der Chatbot analysiert die Schlüsselwörter und Phrasen im Text, um herauszufinden, was der Nutzer möchte – wie z.B. eine Information suchen, eine Bestellung aufgeben oder eine Support-Anfrage stellen.
Basierend auf der erkannten Absicht greift der Chatbot nun auf relevante Quellen zu, um die benötigten Daten und Informationen abzurufen. Dieser Schritt ist tatsächlich am wenigsten dokumentiert, andererseits wissen wir auch wenig darüber, wie unser Gehirn diese Aufgabe erledigt und Wissen aus dem großen Fundus namens Gedächtnis abruft. Mittlerweile ist ChatGPT nicht einmal mehr auf die eigene Basis der Trainingsdaten angewiesen und kann je nach Frage auch andere Quellen hinzunehmen: Dies kann eine Datenbank, ein Wissensgraph, eine API oder eine Suche bei Bing sein. Wenn der Nutzer beispielsweise nach dem Wetter fragt, wird der Chatbot eine Wetter-API abfragen, um die aktuellen Wetterdaten zu erhalten.
Der nächste und letzte Schritt ist die Generierung einer passenden Antwort. Ein Sprachmodell wie GPT versucht nun eine Antwort zu erstellen, die sowohl inhaltlich korrekt als auch natürlich formuliert ist. Der Chatbot stellt sicher, dass die Antwort im besten Fall klar und verständlich ist.
Moderne KI-Chatbots sind in der Lage, auch aus den Interaktionen mit Nutzern zu lernen. Durch maschinelles Lernen verbessern sie kontinuierlich ihre Fähigkeit, Nutzerabsichten zu erkennen und passende Antworten zu generieren. Feedback-Schleifen wie Rückfragen oder Daumen-nach-oben- bzw. Daumen-nach-unten-Klicks und Nutzerdaten werden verwendet, um die Modelle laufend zu verfeinern und die Leistung des Chatbots permanent zu optimieren.
Schema der KI-Chatbots
Alle KI-Chatbots funktionieren nach diesem einfachen Schema:
Eingaben der Nutzers verstehen,
die Absicht erkennen,
relevante Daten abrufen,
passende Antworten generieren und dabei
kontinuierlich lernen und sich weiter anpassen.
ChatGPT basiert auf dem Konzept Finde das nächste Wort, das als grundlegender Mechanismus maschinellen Lernens im Bereich der Natural Language Processing (NLP) verwendet wird. Ein Sprachmodell wie ChatGPT wird auf riesigen Mengen an Textdaten nach dem Modell des Unassisted Learnings trainiert: Schon in der Trainingsphase muss das Sprachmodell beim Lesen der Texte das jeweils nächste Wort vorhersagen und bekommt während des Training unmittelbar danach das Ergebnis als Feedback. Je länger ein Algorithmus an Texten trainiert, umso besser werden diese Voraussagen. Wie ein Kind beim Erwerb der Erstsprache lernt die KI, welche Möglichkeiten es im Spiel Finde das nächste Wort an jedem einzelnen Punkt gibt. Einige Wörter folgen mit sehr hoher Wahrscheinlichkeit, andere kommen eher selten vor und haben also eine geringere Wahrscheinlichkeit, als nächstes Wort zu erscheinen. Ziel des Trainings ist es, die Wahrscheinlichkeiten für das Auftreten von Wörtern in einem bestimmten Kontext zu lernen. Das Modell lernt immer besser, zu jedem einzelnen Zeitpunkt vorherzusagen, welche Wörter am wahrscheinlichsten als Nächstes in der vorliegenden Sequenz erscheinen.
Testen Sie sich selbst und vervollständigen Sie den Satz im folgenden Kasten: Starten Sie mit dem ersten Wort in der obersten Zeile, raten Sie das nächste und decken Sie die einzelnen Zeilen nach und nach auf, um ein direktes Feedback auf Ihre eigenen Antworten zu erhalten:
Finde das nächste Wort!
Herzlichen
Herzlichen Glückwunsch
Herzlichen Glückwunsch zum
Herzlichen Glückwunsch zum Geburtstag
Herzlichen Glückwunsch zum Geburtstag und
Herzlichen Glückwunsch zum Geburtstag und alles
Herzlichen Glückwunsch zum Geburtstag und alles Gute
Herzlichen Glückwunsch zum Geburtstag und alles Gute lieber
Herzlichen Glückwunsch zum Geburtstag und alles Gute lieber Thomas
Wir kennen das alle von unserem Smartphone, wenn wir Nachrichten in einem Messenger verfassen und die Schreibkorrektur uns immer wieder mehr oder weniger passende Vorschläge liefert. Die Treffergenauigkeit steigt dort übrigens, wenn Sie die richtige Sprache eingestellt haben, weil das die Zahl der Möglichkeiten für das nächste Wort verringert. Außerdem lernt dieser Assistent auch aus den Nutzerdaten. Nach Liebe Grüße folgt meistens Ihr eigener Vorname, mit bestimmten Gesprächspartnern tauschen Sie sich regelmäßig über dieselben Themen aus und verwenden dabei immer dieselben Namen und Wörter.
Der Trainingsprozess bei einem großen Sprachmodell beginnt immer mit der sogenannten Tokenisierung, bei der der Text in kleinere Einheiten, sogenannte Tokens, zerlegt wird. Diese Tokens können Wörter, Teile von Wörtern oder sogar einzelne Zeichen sein. Danach betrachtet das Modell den Kontext der vorhergehenden Tokens, um die Wahrscheinlichkeit des nächsten Tokens zu bestimmen. Beispielsweise, wenn die vorherigen Tokens »Der Hund« sind, könnte das Modell vorhersagen, dass das nächste Token mit hoher Wahrscheinlichkeit ein Verb wie »bellt« sein könnte. Für jedes Token im Trainingstext berechnet das Modell eine Wahrscheinlichkeitsverteilung über alle möglichen nächsten Tokens. Das Modell wird darauf trainiert, die Parameter so anzupassen, dass die Wahrscheinlichkeit der tatsächlich folgenden Tokens maximiert wird.
Bei der Generierung von Texten verhält sich ChatGPT wie ein autoregressives Modell, was bedeutet, dass es die Tokens eines nach dem anderen generiert. Es beginnt mit einem Start-Token und sagt das nächste Token basierend auf dem bisher generierten Kontext voraus. Dieser Prozess wird wiederholt, bis die gewünschte Länge des Texts erreicht oder ein vordefiniertes Endkriterium erfüllt ist. Durch diese Methode kann ChatGPT menschenähnliche Texte erstellen, indem es (wie im Training gelernt) auf das Konzept Finde das nächste Wort zurückgreift, um kontextuell relevante und kohärente Sätze zu bilden.
Jenseits der Ebene Satz wartet ein ganz neues Problem auf uns: Wer einfach nur grammatikalisch korrekte und inhaltlich sinnvolle Sätze aneinanderreiht, hat noch lange keinen Text erstellt, wie ihn der Deutschlehrer in der Schule einfordert. Es fehlt ein roter Faden und – bildlich gesprochen – der Klebstoff zwischen den einzelnen Sätzen. Kohärenz und Kohäsion sind dieser roter Faden sowie der Klebstoff und gleichzeitig zwei wichtige Konzepte in der Textlinguistik, einer sprachwissenschaftlichen Disziplin, die sich mit der Struktur und Verständlichkeit von Texten beschäftigt.
Kohärenz bezieht sich auf die logische und inhaltliche Verknüpfung von Ideen und Informationen in einem Text. Ein kohärenter Text ist leicht verständlich und folgt einem klaren Gedankengang. Kohärenz entsteht durch:
Sinnzusammenhänge: Die Ideen und Informationen im Text hängen logisch miteinander zusammen.
Thematische Einheit: Der Text bleibt bei einem Hauptthema und entwickelt dieses Thema konsistent weiter.
Textstruktur: Die Anordnung der Sätze und Absätze folgt einer nachvollziehbaren Struktur, z.B. Einleitung, Hauptteil und Schluss.
Ein kurzes Beispiel für Kohärenz: »Die Sonne schien hell. Es war ein perfekter Tag für ein Picknick. Wir packten unsere Sachen und gingen zum Park.« Hier gibt es eine klare Abfolge von Ereignissen, die logisch miteinander verbunden und für den Leser mit allgemeinem Weltwissen leicht nachvollziehbar sind.
Kohäsion bezieht sich auf die sprachlichen Mittel, die verwendet werden, um die Elemente eines Texts miteinander zu verbinden (oder zu verkleben). Es geht also nicht um den Inhalt, sondern um die formalen Verknüpfungen zwischen Wörtern, Sätzen und Absätzen. Kohäsion wird durch verschiedene sprachliche Mittel erreicht:
Pronomen: Verwendung von Pronomen, um auf vorherige Sätze oder Wörter zu verweisen (z.B. »Die Katze sprang auf den Tisch. Sie war sehr schnell.«).
Konjunktionen: Einsatz von Bindewörtern, um Sätze und Satzteile zu verbinden (z.B. »und«, »aber«, »weil«).
Wiederholungen und Synonyme: Wiederholung wichtiger Wörter oder Verwendung von Synonymen, um den Zusammenhang zu verdeutlichen (z.B. »Das Haus ist groß. Das Gebäude hat fünf Stockwerke.«).
Lexikalische Kohäsion: Verwendung thematisch verwandter Wörter (zum Beispiel »Bäume«, »Wald«, »Blätter«).
Hier auch ein kurzes Beispiel für Kohäsion: »Die Sonne schien hell. Sie warf lange Schatten auf den Boden.» Hier wird durch das Pronomen »Sie« klar, dass auf die »Sonne« im vorherigen Satz verwiesen wird.
Ein guter Text benötigt sowohl Kohärenz als auch Kohäsion, um für den Leser verständlich und angenehm lesbar zu sein. ChatGPT stellt Kohärenz und Kohäsion in Texten durch verschiedene Mechanismen sicher, die in seine Architektur und die Trainingsprozesse eingebaut sind.
Kohärenz wird durch die Kontextverfolgung und Sequenzmodellierung erreicht. ChatGPT verfolgt den Kontext eines Gesprächs oder Texts, um sicherzustellen, dass die Antworten relevant und logisch aufeinander aufbauen. Das Modell wurde auf unvorstellbar großen Textmengen trainiert, die natürliche Sprachmuster enthalten, wodurch es typische Sequenzen von Ideen und Informationen erkennt und reproduziert. Dadurch kann ChatGPT Themen konsistent weiterentwickeln und den Fluss der Argumentation oder Erzählung aufrechterhalten.
Kohäsion wird durch die korrekte Verwendung von Pronomen und referenziellen Ausdrücken erreicht, um Verbindungen zwischen Sätzen herzustellen. ChatGPT integriert Konjunktionen und andere Bindewörter, um Sätze und Absätze logisch zu verbinden, was eine klare und kohäsive Struktur im Text schafft. Zudem verwendet das Modell Wiederholungen und Synonyme, um den Text flüssig und kohäsiv zu gestalten, und vermeidet unnötige Wiederholungen durch alternative Ausdrücke, die thematisch und semantisch verwandt sind. Das Modell stellt sicher, dass verwandte Begriffe und Ausdrücke im gesamten Text verwendet werden, um ein zusammenhängendes Thema zu präsentieren, was zur lexikalischen Kohäsion beiträgt.
Ein Beispiel dafür ist, wenn ein Nutzer mit dem folgenden Satz beginnt: »Die Sonne scheint hell und der Himmel ist klar.« und anschließend fragt: »Was können wir an solch einem Tag unternehmen?« ChatGPT könnte dann antworten: »An einem so sonnigen Tag könnten wir ein Picknick im Park machen. Der klare Himmel wäre auch perfekt für viele anderen Outdoor-Aktivitäten wie Radfahren oder Wandern.« Hier finden wir sowohl Kohärenz als auch Kohäsion: Die Antwort baut logisch auf der Information über das sonnige Wetter auf und entwickelt das Thema weiter, während Pronomen und kontextbezogene Wörter verwendet werden, um den Text miteinander zu verbinden. Durch diese Mechanismen gelingt es ChatGPT, kohärente und kohäsive Texte zu erzeugen, die für den Leser verständlich und logisch strukturiert sind.
Das Modell versteht damit noch nicht, was es sagt, sondern kann lediglich sprachlich und inhaltlich sinnvoll reagieren. Es wurde darauf trainiert, die statistischen Beziehungen zwischen Wörtern und Phrasen zu erkennen. Wenn es eine Anfrage erhält, nutzt es dieses »Verständnis«, um Wörter und Sätze zu erzeugen, die in den gegebenen Kontext passen. Dabei kann es neue und kreative Kombinationen von Ideen, Charakteren und Handlungssträngen schaffen, die auf den Mustern basieren, die es während des Trainings gelernt hat.
Ein anderer wichtiger Aspekt der Kreativität von GPT liegt in seiner Fähigkeit, unterschiedliche Stile und Strukturen zu imitieren. Es kann Geschichten, Gedichte oder Dialoge in einer Weise generieren, die für den Leser neu und originell erscheinen. Es kann antworten wie ein Kind oder wie ein Wissenschaftler, es kann einen Rapper, einen bekannt Komiker wie Otto Waalkes oder den Papst imitieren, sogar bekannte Dialekte in begrenztem Umfang imitieren. Dies wird durch die unglaublich große Menge an Texten ermöglicht, mit denen das Modell trainiert wurde, einschließlich literarischer Werke, wissenschaftlicher Artikel und alltäglicher Gespräche.
Während GPT keine bewussten Gedanken oder Absichten hat, nutzt es die Wahrscheinlichkeiten, um Wörter und Sätze zu wählen, die natürlich und kohärent erscheinen. Dieser Mechanismus erlaubt es dem Modell, kreative Inhalte zu erstellen, die oft erstaunlich komplex und einfallsreich sind. Es ahmt die menschliche Kreativität nach, indem es die bereits vorhandenen Daten auf neue und unvorhersehbare Weise kombiniert. GPT nutzt seine fortschrittlichen Mustererkennungsfähigkeiten in Kombination mit den sehr umfangreichen Trainingsdaten, um neue kreative Inhalte zu erstellen. Obwohl es nicht im menschlichen Sinne denken kann, erzeugt es durch wahrscheinlichkeitsbasierte Vorhersagen und das Verständnis sprachlicher Strukturen Texte, die für den Leser kreativ und originell wirken.
