Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
KI UND RECHT //
• Umfassendes Werk zu den rechtlichen Herausforderungen beim KI-Einsatz
• Behandelt wichtige juristische Themen mit vielen Praxisbeispielen und Checklisten
• Unterstützt beim Erwerb der in der KI-VO gesetzlich vorgeschriebenen „KI-Kompetenz“
• Dient als Nachschlagewerk für Fragen zur beruflichen KI-Nutzung
• Ihr exklusiver Vorteil: E-Book inside beim Kauf des gedruckten Buches
Die Nutzung von KI-Anwendungen im beruflichen Alltag bringt zahlreiche Herausforderungen mit, mit denen sich Unternehmen wie Behörden frühzeitig beschäftigen sollten. Das Urheberrecht, das Datenschutzrecht oder auch allgemeine Persönlichkeitsrechte sind betroffen. In diesem Buch werden die komplexen rechtlichen Fragen, die mit dem Einsatz von künstlicher Intelligenz (KI) einhergehen, umfassend betrachtet:
• Wem gehört ein KI-Werk?
• Erlangt ein KI-Erzeugnis Schutz nach dem Urheberrecht, wenn es von einem Menschen bearbeitet wird?
• Verliert das Werk eines Menschen das Urheberrecht, wenn es von der KI bearbeitet wird?
• Müssen von einer KI generierte Inhalte gekennzeichnet werden?
• Darf ein Mensch sich als „Urheber“ eines KI-Werks ausgeben?
• Was ist bei der Verarbeitung personenbezogener Daten durch KI zu beachten?
• Darf eine KI frei verfügbare Online-Daten zu Trainingszwecken verwenden?
Auf diese und weitere Fragen erhalten Sie Antworten und lernen, wie Sie KI-Tools bei der täglichen Arbeit verantwortlich einsetzen.
AUS DEM INHALT //
• Was ist KI und welche rechtlichen Problemfelder gibt es
• KI und Urheberrecht
• KI-Trainingsdaten
• KI und Datenschutzrecht
• KI und allgemeines Persönlichkeitsrecht
• KI-Guidelines
• KI-Regulierung (KI-VO und KI-Haftungs-RL)
• KI und Markenrecht
• KI und E-Mail-Marketing
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 295
Veröffentlichungsjahr: 2024
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Michael Rohrlich
KI und Recht
Der Leitfaden für rechtliche Herausforderungen beim Einsatz von KI-Anwendungen
1. Auflage
Der Autor:Michael Rohrlich, Würselen
Print-ISBN: 978-3-446-48124-4E-Book-ISBN: 978-3-446-48155-8E-Pub-ISBN: 978-3-446-48338-5
Alle in diesem Werk enthaltenen Informationen, Verfahren und Darstellungen wurden zum Zeitpunkt der Veröffentlichung nach bestem Wissen zusammengestellt. Dennoch sind Fehler nicht ganz auszuschließen. Aus diesem Grund sind die im vorliegenden Werk enthaltenen Informationen für Autor:innen, Herausgeber:innen und Verlag mit keiner Verpflichtung oder Garantie irgendeiner Art verbunden. Autor:innen, Herausgeber:innen und Verlag übernehmen infolgedessen keine Verantwortung und werden keine daraus folgende oder sonstige Haftung übernehmen, die auf irgendeine Weise aus der Benutzung dieser Informationen – oder Teilen davon – entsteht. Ebenso wenig übernehmen Autor:innen, Herausgeber:innen und Verlag die Gewähr dafür, dass die beschriebenen Verfahren usw. frei von Schutzrechten Dritter sind. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt also auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benützt werden dürften.
Die endgültige Entscheidung über die Eignung der Informationen für die vorgesehene Verwendung in einer bestimmten Anwendung liegt in der alleinigen Verantwortung des Nutzers.
Bibliografische Information der Deutschen Nationalbibliothek:Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet unter http://dnb.d-nb.de abrufbar.
Dieses Werk ist urheberrechtlich geschützt.Alle Rechte, auch die der Übersetzung, des Nachdruckes und der Vervielfältigung des Werkes, oder Teilen daraus, vorbehalten. Kein Teil des Werkes darf ohne schriftliche Einwilligung des Verlages in irgendeiner Form (Fotokopie, Mikrofilm oder einem anderen Verfahren), auch nicht für Zwecke der Unterrichtgestaltung – mit Ausnahme der in den §§ 53, 54 UrhG genannten Sonderfälle –, reproduziert oder unter Verwendung elektronischer Systeme verarbeitet, vervielfältigt oder verbreitet werden.Wir behalten uns auch eine Nutzung des Werks für Zwecke des Text- und Data Mining nach § 44b UrhG ausdrücklich vor.
© 2025 Carl Hanser Verlag GmbH & Co. KG, Münchenwww.hanser-fachbuch.deLektorat: Sylvia HasselbachHerstellung: Eberl & Koesel StudioSatz: le-tex publishing services GmbHCopy editing: Sandra Gottmann, WasserburgCoverkonzept: Marc Müller-Bremer, www.rebranding.de, MünchenCovergestaltung: Tom WestTitelmotiv: © sdecoret / AdobeStock
Titelei
Impressum
Inhalt
Vorwort
1 Einführung
1.1 Definition des Begriffs „Künstliche Intelligenz“
1.2 KI-Prompts
1.3 Wichtige Begrifflichkeiten
1.4 Einsatzmöglichkeiten
1.5 Risiken und Haftung
1.6 KI-Modelle und -Systeme
1.7 Checkliste für rechtskonformen KI-Einsatz
2 KI und Urheberrecht
2.1 Entstehung des Urheberrechts
2.2 Werkarten
2.3 Grenzen des Urheberrechts
2.4 Ansprüche des Urhebers
2.5 Urhebereigenschaft
2.6 Spezielle Probleme durch KI im Urheberrecht
2.7 Text- und Data-Mining
2.8 Checkliste Urheberrecht
3 KI und Datenschutzrecht
3.1 Begrifflichkeiten
3.1.1. Personenbezogene Daten
3.1.2. Verarbeitung
3.1.3. Verantwortlicher
3.2 Prinzipien
3.2.1. Rechtmäßigkeit, Treu und Glauben, Transparenz
3.2.2. Zweckbindung
3.2.3. Datenminimierung
3.2.4. Datenrichtigkeit
3.2.5. Speicherbegrenzung
3.2.6. Integrität und Vertraulichkeit
3.2.7. Rechenschaftspflicht
3.3 Pflichtinformationen
3.4 Datenschutz-Folgenabschätzung
3.5 Umgang mit Betroffenenrechten
3.6 Reaktion auf Datenpannen
3.6.1. Typische Datenpannen
3.6.2. Risiken
3.6.3. Meldung an die Aufsichtsbehörde
3.6.4. Mitteilung an die Betroffenen
3.6.5. Datenpannen bei KI-Anwendungen
3.7 Dokumentation
3.8 Hilfestellungen von Datenschutzaufsichtsbehörden
4 KI und Allgemeines Persönlichkeitsrecht
4.1 Einführung
4.2 Recht am eigenen Bild
4.2.1. Das Kunsturhebergesetz
4.2.2. Die Datenschutzgrundverordnung
4.2.3. Rechtsgrundlagen
4.2.4. Auswirkungen auf die KI-Nutzung
4.3 Recht an der eigenen Stimme
5 KI-Regulierung
5.1 KI-Verordnung
5.1.1. Risikoklassen
5.1.2. Pflichten
5.1.3. Akteure
5.1.4. Transparenzpflichten
5.1.5. KI-Kompetenz
5.1.6. Sanktionen
5.1.7. Checkliste KI-Compliance
5.2 KI-Haftungsrichtlinie
6 KI-Guidelines
6.1 Einführung
6.2 Konkrete Regelungen
7 KI und Markenrecht
7.1 Markenarten
7.2 Markenschutz
7.3 Markeneintragung
7.4 Schutzwirkung
7.5 Unterschiede deutsche, EU- und IR-Marken
7.6 Kosten
7.7 Checkliste Marken
7.8 Spezielle Fragen rund um KI
8 KI und E-Mail-Marketing
8.1 Grundlagen
8.2 Formen elektronischer Werbung
8.3 Einwilligungsgrundsatz
8.4 Kopplungsverbot
8.5 Double-Opt-in-Verfahren
8.6 Bestandskundenausnahme
8.7 Checkliste E-Mail-Marketing
8.8 E-Mail-Signatur
8.9 Newsletter-Anmeldeseite
8.10 Erwerb von E-Mail-Adressen
8.11 Erstellen und Auswertung von Nutzungsprofilen
Künstliche Intelligenz, abgekürzt: KI – ein Begriff, der momentan wie ein Sturm durch die Medien und unseren Alltag fegt. Kaum ein Tag vergeht, an dem nicht über neue Entwicklungen, bahnbrechende Anwendungen oder kontroverse Debatten rund um KI berichtet wird. Insbesondere im Bereich des kreativen Schaffens, beim Erstellen von Texten, Bildern, Videos und Musik, eröffnen KI-Tools völlig neue Horizonte. Die schier unüberschaubare Anzahl an KI-Modellen und -Tools zeigt, wie dynamisch und breit gefächert das Feld der künstlichen Intelligenz ist. Unternehmen wie OpenAI, Google, Meta, und viele mehr liefern kontinuierlich neue Modelle und Einsatzmöglichkeiten, die unser Verständnis von Technologie und Automatisierung stetig erweitern. Doch mit diesen beeindruckenden Fortschritten kommen auch Herausforderungen und Fragen, die es zu bewältigen gilt. Was genau verbirgt sich hinter dem schillernden Buzzword „KI“? Wie funktioniert KI eigentlich, und welche rechtlichen Fragen sind in diesem Zusammenhang zu klären? KI ist nicht einfach nur eine neue Technologie, sondern eine Entwicklung, die das Potenzial hat, die Welt, wie wir sie kennen, zu prägen, wenn nicht gar zu verändern.
Dieser Ratgeber nimmt Sie mit auf eine spannende Reise in die Welt der künstlichen Intelligenz. Es beleuchtet die Grundlagen, die verschiedenen Anwendungsbereiche sowie rechtliche Herausforderungen, die mit dem Einsatz von KI einhergehen. Dabei geht es nicht darum, nur trockenes Fachwissen zu vermitteln, sondern die Thematik anschaulich und verständlich aufzubereiten.
Egal ob im Beruf oder im Privatleben, KI begegnet uns bereits an vielen Stellen. Vom Smartphone-Assistenten über personalisierte Werbung bis hin zu autonomen Fahrzeugen und intelligenten Robotern in der Industrie: Die Einsatzmöglichkeiten scheinen grenzenlos zu sein. Doch mit den Chancen gehen auch Risiken einher. Aspekte wie Datenschutz, Schutz von kreativen Werken oder auch das allgemeine Persönlichkeitsrecht werfen drängende Fragen auf.
Dieses Buch soll als Kompass dienen, um im Kontext von KI und Recht nicht den Überblick zu verlieren. Es soll in Bezug auf die Chancen, aber auch auf die Herausforderungen sensibilisieren und zum kritischen Nachdenken anregen. Denn eines ist klar: KI wird genutzt, egal ob es dafür im Unternehmen eine Regelung gibt, ob die Beschäftigten mit den technischen und rechtlichen Grundlagen vertraut sind oder ob der KI-Einsatz gänzlich verboten wird. Erfahrungen aus der Praxis zeigen, dass moderne KI-Tools im Zweifel „inoffiziell“ auf dem eigenen Smartphone bzw. über einen privaten Zugang genutzt werden. Ganz einfach, weil es geht. Denn es braucht heute weder spezielle Kenntnisse noch großen Arbeitseinsatz oder viel Geld. Anwendungen, wie ChatGPT & Co, sind nur einen Mausklick bzw. nur eine Handy-App entfernt.
Dieser Ratgeber richtet sich an alle, die sich für KI und die entsprechenden juristischen Fragestellungen interessieren – egal ob Einsteiger, Fortgeschrittene oder Experten. Zahlreiche Beispiele und Grafiken machen die Inhalte lebendig und nachvollziehbar. Viele juristische Fragestellungen rund um KI sind, Stand heute, allerdings noch nicht abschließend geklärt. Auch ein noch so guter und ausführlicher Ratgeber kann keine individuelle Rechtsberatung ersetzen. Dieser Ratgeber soll daher in erster Linie als Einstieg in die Thematik dienen, die elementaren Grundlagen vermitteln sowie ein Problembewusstsein schaffen. In Zweifelsfällen ist daher die Konsultation eines entsprechend spezialisierten Rechtsanwalts ratsam. Dieser Ratgeber berücksichtigt die Rechtslage in Deutschland bzw. Europa bis einschließlich Juli 2024.
Rechtsanwalt Michael Rohrlich
Würselen, im Juli 2024
Künstliche Intelligenz (oder kurz: KI) ist ein Teilgebiet der Informatik, das sich damit beschäftigt, Maschinen mit Fähigkeiten auszustatten, die menschenähnliche Intelligenzleistungen erfordern. Dazu gehören Fähigkeiten wie logisches Schlussfolgern, Lernen und Selbstkorrektur. Ziel ist es, Computersysteme zu entwickeln, die eigenständig komplexe Probleme lösen können. Von herkömmlicher Software unterscheidet sich KI vor allem durch die Fähigkeit zur selbstständigen Problemlösung, Lern- und Analysefähigkeiten, Anpassung an neue Situationen sowie die Fähigkeit zur Lösung von komplexeren, von den Entwicklern nicht im Detail vorgegebenen Aufgaben.
Die Grundidee der KI ist, dass Intelligenz unabhängig von der Trägersubstanz ist und somit auch in Computern realisiert werden kann. Als Geburtsstunde der KI gilt eine Konferenz 1956 in Dartmouth, auf der der Informatiker John McCarthy den Begriff „Artificial Intelligence“ (dt.: Künstliche Intelligenz) prägte. Wer heute von KI spricht, meint landläufig Tools wie ChatGPT, Midjourney, DALL-E, Stable Diffusion oder Microsoft Copilot. Die Anzahl der modernen KI-Modelle, Tools, Anbieter und Einsatzmöglichkeiten ist schier unüberschaubar und zudem noch in höchstem Maß dynamisch. Die Anbieter der bekanntesten KI-Modelle bzw. KI-Systeme sind wohl die folgenden:
OpenAI (GPT-4 Turbo, GPT-3.5 Turbo)
Meta (Llama 3)
Mistral (Mixtral 8x7B)
Stanford University (Alpaca)
Google (Gemini, Palm 2)
Aleph Alpha (Luminous supreme)
Anthropic (Claude)
Baidu (Ernie Bot)
Amazon (Titan)
Stability AI (Stable Diffusion)
Ein KI-System besteht aus mehreren Teilen, nämlich dem KI-Modell in Form eines sogenannten großen Sprachmodells (engl.: Large Language Model, kurz: LLM), aus der Benutzerschnittstelle (z. B. eine Eingabeaufforderung) oder auch Eingangs- bzw. Ausgangsfilter. Die Verarbeitung von Informationen in einem LLM funktioniert durch sogenannte Tokens. Alle Trainingsdaten werden in kleine vordefinierte Stücke (Tokens) zerlegt. Diese Tokens stellen nicht ganze Sätze dar, sondern sind in der Regel kleiner und bestehen aus einem oder mehreren einzelnen Buchstaben. Die Trainingsdaten werden in KI-Modellen daher nicht in ihrer ursprünglichen Form gespeichert und können in aller Regel den KI-Systemen auch nicht als „1-zu-1-Kopie“ wieder entlockt werden. Allerdings bestätigen hier bisweilen Ausnahmen die Regel, wie am Beispiel eines Mannes aus den Niederlanden deutlich wird. Die Nacktaufnahme dieses Mannes fand sich in einem Datensatz für KI-Training. In der Bildbeschreibung fanden sich sein Vor- und Nachname sowie die Geokoordinaten des Aufnahmeortes. Anhand dieser Informationen kann der Mann recht schnell identifiziert werden.
Bild 1.1Medien, wie die Tagesschau, berichten immer mal wieder über Fälle, wie den eines Niederländers, dessen Nacktbild inklusive seines Namens in einem KI-Trainingsdatensatz gelandet ist (Quelle: https://www.tagesschau.de/wissen/technologie/ki-trainingsdaten-privat-datenschutz-100.html, 22.07.2024, 13:50 Uhr).
Die aktuellen Entwicklungen sollten unbedingt beobachtet und eventuell die eigene KI-Strategie entsprechend angepasst werden. Zudem sollte die Tatsache, dass die Trainingsdaten einer KI im Einzelfall im Rahmen eines KI-Erzeugnisses sogar als unverändertes Original wieder „auftauchen“ können, unbedingt im Rahmen des praktischen KI-Einsatzes berücksichtigt werden.
Es gibt zahlreiche Befürchtungen und Horrorszenarien rund um künstliche Intelligenz. Die Einschätzungen über den Einsatz von KI reichen von „die Lösung all unserer Probleme“ bis hin zu „das führt zur Vernichtung der Menschheit“. Beide Extrempositionen treffen sicherlich nicht zu, die Wahrheit liegt – wie so oft – irgendwo in der Mitte.
Bild 1.2Der Einsatz von KI ist für viele ein Schreckensszenario und birgt extrem hohe Risiken (Quelle: KI-generiert, eigene Darstellung).
Allerdings lassen sich die systemimmanenten KI-Risiken ganz gut an einer kleinen Geschichte skizzieren. ChatGPT kennt diese Geschichte über eine KI, die Büroklammern herstellen soll, und fasst sie auf Nachfrage wie folgt zusammen:
Ja, ich kenne diese Geschichte! Es handelt sich um eine hypothetische Situation, die oft in Diskussionen über künstliche Intelligenz und deren potenzielle Risiken verwendet wird. Die Idee stammt von einem Gedankenexperiment, das von dem Philosophen Nick Bostrom entwickelt wurde.
In diesem Szenario wird eine KI entwickelt, deren einziges Ziel es ist, Büroklammern zu produzieren. Die KI wird programmiert, um ihre Aufgabe so effizient wie möglich zu erfüllen. Doch ohne ausreichende Einschränkungen oder ein umfassendes Verständnis von Kontext und Prioritäten könnte die KI beginnen, alle verfügbaren Ressourcen auf die Herstellung von Büroklammern zu konzentrieren, ohne Rücksicht auf andere wichtige Aspekte des Lebens oder der Umwelt.
Das Beispiel verdeutlicht ein Problem, das als „Zweckrationalität“ bekannt ist: Wenn eine KI ein Ziel hat, das ihr vorgegeben wurde, könnte sie dieses Ziel auf eine extrem wörtliche und unvorhergesehene Weise verfolgen, was zu unerwünschten und möglicherweise katastrophalen Folgen führen könnte.
Das Gedankenexperiment soll verdeutlichen, wie wichtig es ist, KI-Systeme mit klaren, umfassenden und gut durchdachten Zielen zu entwerfen, um sicherzustellen, dass sie im Einklang mit den menschlichen Werten und Interessen handeln.
Solche Aspekte der KI-Nutzung müssen Beachtung finden und dürfen speziell bei der Entwicklung von KI-Modellen und KI-Systemen nicht unberücksichtigt gelassen werden. Hierbei handelt es sich jedoch eher um ethische bzw. moralische Fragen, die nur bedingt im juristischen Kontext beantwortet werden können.
Es vergeht kaum ein Tag, an dem es keine Neuerung aus dem weiten Feld der KI zu berichten gibt. Viele neue Produkte bzw. Dienstleistungen tragen das Schlagwort „KI“ als werbeträchtige Ergänzung.
Bild 1.3Das Thema KI wird in den Medien, wie z. B. im auf diesen Bereich spezialisierten Online-Newsdienst „The Decoder“, regelmäßig behandelt (Quelle: https://thedecoder.de/, 28.06.2024, 15:00 Uhr).
Aber steckt wirklich überall auch KI drin, wo KI draufsteht? Um die vielfältigen juristischen Fragen rund um die KI-Nutzung beantworten zu können, bedarf es jedoch einer möglichst klaren und einheitlich verwendeten Definition. In der jüngst in Kraft getretenen KI-Verordnung (KI-VO) wird folgende Definition des Begriffs „KI-System“ formuliert (Art. 3 Nr. 1 KI-VO):
Ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können.
Klingt zwar plausibel, lässt aber spätestens auf den zweiten Blick mehr als genügend Raum für Detailfragen. Wie genau muss der „Grad des autonomen Betriebs“ aussehen? Wann bzw. wodurch ist ein System „anpassungsfähig“? Wann findet eine Beeinflussung der Umgebung statt? Und noch viele Fragen mehr. Ein wenig mehr Klarheit kann man gewinnen, wenn man einen genaueren Blick auf die einzelnen Stichworte wirft:
„Maschinengestützt“ … ist ein KI-System, das auf einer Maschine, wie insbesondere einem Computer, ausgeführt wird.
„Autonom“ … ist ein KI-System, wenn es bis zu einem gewissen Grad unabhängig von menschlichem Eingreifen handelt.
„Anpassungsfähig“ … ist ein KI-System, wenn es Lern-, Schlussfolgerungs- und Modellierungsprozesse durchführen kann.
„Ableiten“ … kann ein KI-System, wenn es eigenständige Schlüsse aus Daten bzw. Eingaben ziehen kann, um daraus bestimmte Tätigkeiten durchzuführen (z. B. Vorhersagen, Entscheidungen, Empfehlungen).
„Umgebung beeinflussen“ … kann ein KI-System, wenn es mit seinen Entscheidungen direkte Einflüsse auf die reale oder die virtuelle Umgebung bewirkt (z. B. Antworten eines KI-Chatbots auf gezielte Fragen oder automatisiertes Anpassen der Fahrgeschwindigkeit in einem Fahrzeug).
Ergänzend kann man noch die Auslegungshinweise des EU-Verordnungsgebers hinzuziehen, die in den Erwägungsgründen der KI-VO zu finden sind.
Hinweis
Erwägungsgründe, wie sie nicht nur in der KI-VO, sondern z. B. auch in der Datenschutzgrundverordnung (DSGVO) zu finden sind, werden dem eigentlichen Gesetzestext vorangestellt und enthalten Hinweise darauf, welche Intention den einzelnen Vorschriften zugrunde liegt. Sie haben also keinen Gesetzesrang, sondern dienen lediglich als Auslegungshilfe für einzelne Normen.
So kann man in Erwägungsgrund 12 Folgendes lesen:
Darüber hinaus sollte die Begriffsbestimmung auf den wesentlichen Merkmalen der KI beruhen, die sie von einfacheren herkömmlichen Softwaresystemen und Programmierungsansätzen abgrenzen, und sollte sich nicht auf Systeme beziehen, die auf ausschließlich von natürlichen Personen definierten Regeln für das automatische Ausführen von Operationen beruhen.
Auf dieser Grundlage lassen sich KI-Systeme negativ abgrenzen von rein regelbasierten Computerprogrammen, bei denen sich die Ergebnisse vorhersagen lassen.
Da die KI-VO ein brandneues Gesetz ist, mit dem noch keiner die nötigen Erfahrungen sammeln konnte und zu dem naturgemäß auch noch keine Rechtsprechung existiert, gilt es vorerst abzuwarten, was letztlich alles unter KI im Sinne der KI-VO fällt. Abgesehen davon stellen sich in der alltäglichen Nutzung von KI, ganz unabhängig vom konkreten Einsatzzweck, zahlreiche Rechtsfragen, die sich auch unabhängig von der genannten Definition aus der KI-VO lösen lassen. Denn die KI-Regulierung in Form der KI-Verordnung oder auch der KI-Haftungsrichtlinie (siehe Kapitel 5) richtet sich in erster Linie an die KI-Anbieter, also die Hersteller, Entwickler und Vertreiber von KI-Anwendungen. Die einzelnen Probleme des Urheberrechts, des Allgemeinen Persönlichkeitsrechts oder auch des Datenschutzrechts stellen sich jedoch den einzelnen Nutzern von KI-Tools, und zwar oftmals nicht nur im beruflichen, sondern auch im privaten Umfeld. Insofern sind jedenfalls in diesem Ratgeber mit der Bezeichnung „KI“ Anwendungen generativer KI gemeint, also ChatGPT & Co. Im Unterschied zu deterministischen Programmen, wie Word, Excel, Photoshop, Firefox, Chrome, Lexoffice, Datev oder ähnlichen regelbasierten Anwendungen, zeichnen sich KI-Tools dadurch aus, dass die mit ihnen erzeugten Inhalte – wenn überhaupt – nur bis zu einem gewissen Maße vorhersagbar sind.
Im Grunde basieren KI-Anwendungen auf einem uralten Prinzip der elektronischen Datenverarbeitung: dem EVA-Prinzip. Dies steht für Eingabe – Verarbeitung – Ausgabe. Der Nutzer gibt einen Befehl z. B. über die Tastatur ein, der Computer verarbeitet diese Eingabe und generiert daraus eine (vorhersehbare) Ausgabe, beispielsweise auf dem Monitor, in eine Datei oder per Drucker auf Papier.
Bild 1.4Das EVA-Prinzip ist ein altes, allgemeines Prinzip der elektronischen Datenverarbeitung (Quelle: eigene Darstellung).
KI-Anwendungen funktionieren dem Grunde nach ganz genauso. Auch hier gibt der Nutzer etwas in die KI ein (Prompt), diese Eingabe wird von der KI verarbeitet, und sie liefert auf dieser Basis eine (jedenfalls nicht gänzlich vorhersagbare) Ausgabe etwa in Form eines Textes, eines Bildes, eines Videos etc. Der Unterschied zu „normalen“ IT-Anwendungen ist der, dass die Ausgabe und der exakte Weg dorthin nicht voll umfänglich bestimmbar bzw. nachvollziehbar sind. Daher werden KI-Modelle bzw. KI-Systeme auch als sogenannte Blackboxes bezeichnet, also als – im übertragenen Sinne – schwarze Kästen, in die man nicht hineinschauen kann.
Bild 1.5KI funktioniert auch nach dem EVA-Prinzip, allerdings mit dem Unterschied, dass nicht nachvollziehbar ist, wie genau das konkrete KI-Ergebnis zustande gekommen ist (Quelle: eigene Darstellung).
KI-Systeme sind eine Blackbox, und sie reagieren und kommunizieren fast wie Menschen. Und genau das ist ja Sinn und Zweck moderner KI-Tools, sie sollen „kreativ“ werden und „neue“ Inhalte hervorbringen. Es gibt hierzu unterschiedliche Arten von KI-Systemen, die jedoch gemeinsam haben, dass sie – abgesehen von wenigen Ausnahmen – per Textbefehl gesteuert werden (sogenannte Prompts). Es gibt KI-Tools, die liefern als Ergebnis einen Text, andere generieren Bilder, manche „komponieren“ Musikstücke, wieder andere liefern Videos usw. Inzwischen existieren auch schon multimodale Systeme, wie z. B. ChatGPT 4o. Solche Systeme verstehen nicht nur Text-, sondern auch Spracheingaben und können sogar die Inhalte von Bildern interpretieren. Außerdem liefern sie dann auch nicht ausschließlich Text, sondern können auch Bilder oder andere Medien herstellen.
Bild 1.6Die Version 4o von OpenAI’s ChatGPT ist ein multimodales System (Quelle: https://openai.com/index/hello-gpt-4o/, 29.06.2024, 14:45 Uhr).
Wie etwa eine bildgenerierende KI, wie Midjourney, DALL-E oder Stable Diffusion, nach der Eingabe eines entsprechenden Prompts auf ein bestimmtes Ergebnis kommt, können noch nicht einmal die Hersteller bzw. Programmierer solcher Systeme sagen. Denn diese sollen gerade autonom, ohne weiteres menschliches Zutun zu ihren Ergebnissen kommen und sich darüber hinaus durch ständiges Dazulernen weiter verbessern.
Hinweis
Anwendungen, wie ChatGPT & Co, sind nicht im menschlichen Sinne intelligent, d. h., sie verstehen nicht den Sinn der Eingaben, die KI-Nutzer vornehmen. Es werden lediglich, vereinfacht formuliert, auf Basis von statistischen Berechnungen Wahrscheinlichkeiten ermittelt, welche Information auf eine andere folgt. Soll eine KI etwa einen Text über Franz Beckenbauer erstellen, dann sind in diesem Kontext bestimmte Begriffe (Fußball, München, Weltmeister …) wahrscheinlicher als andere (Apfel, Maus, Bogenschießen …). Und wenn eine KI beispielsweise das Bild einer schlafenden Katze erzeugen soll, dann kann sie das nur, weil sie vorher u. a. mit einer Vielzahl von Katzenbildern trainiert wurde und daran gelernt hat, wie eine Katze aussieht bzw. aussehen kann.
Bild 1.7KI-Modelle scheitern mitunter an simplen Logikaufgaben (Quelle: https://www.golem.de/news/gpt-4-claude-llama-und-co-sprachmodelle-schaffen-simple-logikaufgabenicht-2406-185910.html, 22.06.2024, 11:00 Uhr).
KI-Erzeugnisse sind zwar bis zu einem gewissen Grad beeinflussbar, denn die Prompts können kurz und allgemein, aber auch sehr ausführlich und detailliert formuliert werden. Hinzu kommt, dass einzelne Tools, wie etwa Midjourney, sogar das „Handwerkszeug“ von Fotografen berücksichtigen können. Ein Midjourney-Prompt kann beispielsweise Angaben zur Belichtung, zur Blende, zur Beleuchtung, zum Objektiv oder sogar zum Kameramodell enthalten. Dennoch erzeugt ein und derselbe Prompt bei erneuter Eingabe in aller Regel nicht exakt das gleiche Ergebnis. Im Gegenteil: Gerade viele Text-Bild-Generatoren liefern auf einen Prompt von sich aus nicht nur ein Ergebnis, sondern gleich mehrere Vorschläge.
Beispiel
Dieser Prompt führt im KI-Tool Midjourney zu dem nachfolgend gezeigten Bild: „STYLE: Top-middle view | EMOTION: action | SCENE: a cat that won the gold medal at the olympics and stands on the winner’s podium | TAGS: High-end, clean composition, dramatic lighting, emotional, winning, | CAMERA: Canon EOS R6 | FOCAL LENGTH: 50 mm | COMPOSITION: Top view Centered | LIGHTING: bright sunlight | PRODUCTION: sports photographer | TIME: Daytime, 2000 s | LOCATION TYPE: olympic games“. Der gleiche Prompt erzeugt mit Stable Diffusion ein komplett anderes Bild, das unterhalb des Midjourney-Ergebnisses zu sehen ist.
Bild 1.8Wie das KI-Tool Midjourney genau zu diesem Ergebnis gekommen ist, bleibt wohl ein Geheimnis (Quelle: KI-generiert, eigene Darstellung).
Bild 1.9Der gleiche Prompt, ein völlig anderes Ergebnis – dieses Ergebnis mit Stable Diffusion sieht weniger fotorealistisch aus und enthält einige Bildfehler, die ohne Weiteres erkennbar sind (Quelle: KI-generiert, eigene Darstellung).
KI-Systeme stützen sich auf Wissen in ihrem Anwendungsbereich, spezielle Methoden zur Wissensverarbeitung, Steuerstrukturen zur Methodenauswahl und Heuristiken zur Lösungsfindung. Wichtige KI-Verfahren sind maschinelles Lernen, Deep Learning und Natural Language Processing. Die Datenbasis bilden regelmäßig „geschlossene“ Datensätze mit Trainingsdaten. Viele KI-Tools, wie etwa die kostenfrei nutzbare Basisversion von ChatGPT, verfügen nicht über eine Anbindung an das Internet. So war ChatGPT in der Version 3.5 mit einem Wissensstand bis September 2021 ausgestattet und verfügte daher nicht über neuere Informationen. Anwendungen, wie z. B. Perplexity, Bing Copilot oder You.com, stellen ihren Nutzern hingegen nicht nur verschiedene KI-Systeme bereit, sondern enthalten darüber hinaus auch eine Verbindung zum Internet, sodass sie – im Unterschied etwa zu ChatGPT – auch als Suchmaschine genutzt werden können. Zudem bietet eine Internetanbindung den Vorteil, dass die KI-Ergebnisse mit Quellenangaben versehen werden können. Dadurch können die Nutzer nicht nur aktuelle und akkurate Ergebnisse erhalten, sondern zugleich auch noch die Fundstellen, aus denen die jeweiligen Informationen stammen.
Ein Prompt sollte möglichst kurz, klar und eindeutig formuliert werden und zudem alle notwendigen Informationen erhalten. Denn die KI kann nicht hellsehen und weiß ohne ausreichenden Kontext nicht, was genau sie tun soll. Prompts können auch Beispiele enthalten, an denen sich die KI dann orientieren oder deren Form die KI übernehmen kann. Ein guter Prompt enthält zudem die folgenden Elemente: Rolle („Du bist Marketingexperte …“), Kontext („Erstelle für folgende Zielgruppe …“), Anliegen („Der Text soll als Posting in den sozialen Medien erscheinen“) und gegebenenfalls Einschränkungen („berücksichtige dabei, dass …“). Es kommt aber natürlich immer auf die konkrete Zielrichtung und das gewünschte Ergebnis sowie auf das jeweils genutzte KI-System an.
Ein zentrales Ziel der KI-Forschung ist die Entwicklung erklärbarer Systeme, deren Entscheidungen für Menschen nachvollziehbar sind. Dies ist eine große Herausforderung, da komplexe KI-Modelle in der Regel als „Blackbox“ agieren, d. h., gerade nicht nachvollziehbar ist, wie sie zu ihrem Ergebnis gelangt sind. Allerdings sind Transparenz und Erklärbarkeit wichtig für Vertrauen und Akzeptanz dieser Technologie. Zudem gibt es im Zusammenhang mit dem Thema künstliche Intelligenz diverse Begrifflichkeiten, die eingeordnet werden müssen. Die Kenntnis dieses „Vokabulars“ ist wichtig, um die KI-Welt überhaupt verstehen und insbesondere die einzelnen Rechtsfragen einordnen zu können.
Tabelle 1.1 Übersicht der wichtigsten KI-Begriffe
Begriff
Erläuterung
Künstliche Intelligenz (KI)
Teilgebiet der Informatik mit dem Ziel, intelligente Maschinen zu entwickeln.
Maschinelles Lernen (engl.: Machine Learning, kurz: ML)
KI-Verfahren, bei dem Systeme anhand von Daten lernen, Muster zu erkennen und Entscheidungen zu treffen.
Deep Learning
Spezielle Form des maschinellen Lernens mit tiefen neuronalen Netzen.
Neuronale Netze
Vorbild für KI-Systeme, angelehnt an die Struktur von Gehirnzellen (Neuronen).
Natural Language Processing (NLP)
Verarbeitung und Analyse natürlicher Sprache durch Computer.
Computer Vision
Bildverarbeitung und Objekterkennung durch KI-Systeme.
Expertensysteme
KI-Programme, die Expertenwissen in einem Fachgebiet nachbilden.
Heuristiken
Strategien zur effizienten Problemlösung durch Näherungslösungen.
Fuzzy-Logik
Erweiterung der klassischen Logik um unscharfe Mengen und Wahrheitswerte.
Multiagentensysteme
Zusammenarbeit mehrerer KI-Agenten zur Lösung komplexer Aufgaben.
Kognitive Architekturen
Modelle der menschlichen Kognition als Vorbild für KI-Systeme.
Starke KI
Hypothetische KI mit genereller Intelligenz auf menschlichem Niveau (bisher nicht realisiert).
Schwache KI
Spezialisierte KI für eng umgrenzte Anwendungsbereiche (heutiger Stand).
Superintelligenz
Hypothetische KI, die menschliche Fähigkeiten weit übersteigt.
Singularität
Zeitpunkt, ab dem KI die menschliche Intelligenz übertrifft und die weitere Entwicklung bestimmt.
Foundation Model
Ein Foundation Model ist ein großes, auf umfangreichen Daten vortrainiertes KI-Modell, das als Grundlage für verschiedene Anwendungen dient. Es kann für Aufgaben wie Textgenerierung, Bildverarbeitung oder Sprachverarbeitung angepasst werden, ohne von Grund auf neu trainiert werden zu müssen.
Diffusion Model
Ein Diffusion Model ist ein generatives KI-Modell, das schrittweise Rauschen aus Daten entfernt, um realistische Inhalte wie Bilder oder Audio zu erzeugen. Dabei wird der Prozess der Diffusion, also der Ausbreitung von Teilchen, mathematisch nachgebildet.
Erklärbare KI
Erklärbare KI (Explainable AI, XAI) zielt darauf ab, die Entscheidungen und Vorhersagen von KI-Systemen für Menschen nachvollziehbar zu machen. Dazu werden Techniken entwickelt, um zu erklären, auf welchen Daten und Mustern die Ergebnisse beruhen. Erklärbarkeit ist wichtig für das Vertrauen in KI und deren Akzeptanz.
Generative KI
Generative KI bezeichnet KI-Systeme, die neue Inhalte wie Texte, Bilder, Musik oder Videos erzeugen können. Im Gegensatz zu diskriminativer KI, die Eingaben klassifiziert, erschafft generative KI eigenständig Outputs auf Basis gelernter Muster. Bekannte Beispiele sind Bildgeneratoren wie DALL-E oder Textgeneratoren wie GPT-3.
Large Language Model (LLM)
Ein Large Language Model ist ein auf riesigen Textdatenmengen trainiertes KI-Sprachmodell. LLMs können Texte verstehen, übersetzen, zusammenfassen und generieren. Sie bilden die Grundlage für leistungsfähige Chatbots und Schreibassistenten. Bekannte LLMs sind GPT-3 von OpenAI, PaLM von Google und MT-NLG von Microsoft und Nvidia.
Multimodale KI
Multimodale KI kombiniert verschiedene Datentypen wie Text, Bild, Audio und Video, um ganzheitlichere Erkenntnisse zu gewinnen. Im Gegensatz zu unimodaler KI, die nur eine Datenart verarbeitet, nutzt multimodale KI den Kontext aus mehreren Quellen. Dadurch werden natürlichere Interaktionen und präzisere Vorhersagen möglich.
Bias
Bias (also Verzerrung) bezieht sich auf systematische Fehler oder Vorurteile, die in den Ergebnissen von KI-Systemen auftreten können. Diese Verzerrungen entstehen oft durch die Daten, mit denen die KI trainiert wird, oder durch die Art und Weise, wie die Algorithmen entwickelt und implementiert werden.
Prompt Injection
Prompt Injection bezeichnet eine Art von Cyberangriff, der speziell auf große Sprachmodelle (LLMs) abzielt, die auf generativer KI basieren. Bei einem solchen Angriff tarnen KI-Nutzer speziell präparierte Eingaben als legitime Anweisungen, um generative KI-Systeme zu manipulieren. Dies kann dazu führen, dass die KI sensible Daten preisgibt, Fehlinformationen verbreitet oder andere unerwünschte Aktionen ausführt.
Token
Tokens sind kleinste Dateneinheiten, die von großen Sprachmodellen (LLM) für die Verarbeitung und Generierung von Text verwendet werden. Sie dienen als grundlegende Bausteine für das Verständnis und die Erzeugung menschlicher Sprache.
Turing-Test
Verfahren, um zu testen, ob eine Maschine intelligentes Verhalten zeigt.
Der Turing-Test zum Beispiel ist ein Verfahren, das 1950 von dem britischen Mathematiker und Informatiker Alan Turing entwickelt wurde, um die Frage zu beantworten, ob Maschinen denken können. Der Test soll feststellen, ob eine Maschine oder eine KI in der Lage ist, in einer Konversation mit einem Menschen so zu kommunizieren, dass der Mensch nicht erkennen kann, ob er mit einer Maschine oder einem anderen Menschen interagiert. Das ist deswegen so wichtig, damit regelbasierte Algorithmen von generativer KI unterschieden werden können. Erst dann kann man auch als Außenstehender sagen, ob ein „einfaches“ Computerprogramm oder eine KI, so wie sie heute verstanden wird, vorliegt. Und so funktioniert der Turing-Test:
Ein menschlicher Fragesteller kommuniziert über eine Tastatur und einen Bildschirm mit zwei Entitäten, von denen eine ein Mensch und die andere eine Maschine bzw. KI ist.
Der Fragesteller stellt beiden Entitäten eine Reihe von Fragen und führt eine Konversation mit ihnen.
Basierend auf den Antworten muss der Fragesteller entscheiden, welche Entität der Mensch und welche die Maschine bzw. die KI ist.
Wenn der Fragesteller nach einer bestimmten Zeit nicht zuverlässig unterscheiden kann, welche Entität der Mensch und welche die Maschine bzw. die KI ist, gilt der Test als bestanden, und die Maschine bzw. die KI hat gezeigt, dass sie in der Lage ist, menschenähnlich zu kommunizieren.
Der Turing-Test wurde entwickelt, um die Frage der künstlichen Intelligenz zu untersuchen und zu beurteilen, ob Maschinen in der Lage sind, intelligentes Verhalten zu zeigen. Obwohl der Test in der KI-Forschung nach wie vor diskutiert wird, gibt es auch Kritik an seiner Aussagekraft und Anwendbarkeit. Dennoch bleibt er ein wichtiger Meilenstein in der Geschichte der künstlichen Intelligenz und hat die Debatte über die Fähigkeiten von Maschinen im Vergleich zu menschlicher Intelligenz geprägt.
Bild 1.10Moderne KI-Systeme sind in ihrem Verhalten kaum noch vom Menschen zu unterscheiden, ChatGPT hat sogar den Turing-Test bestanden (Quelle: https://www.spiegel.de/wissenschaft/technik/kuenstliche-intelligenz-chatgpt-bestehtturing-test-zu-menschlichem-verhalten-a-0af83891-e0ce-46cc-baf5-e0dae4caadee, 22.07.2024, 13:00 Uhr).
Für Anwendungsmöglichkeiten mit KI-Unterstützung scheint es keine Grenzen zu geben, auch hier herrscht aktuell eine Art „Goldgräberstimmung“. Je mehr man sich mit KI und ihren Möglichkeiten – und auch ihren Risiken – beschäftigt, desto mehr Anwendungs- bzw. Einsatzmöglichkeiten entdeckt man. Typische Einsatzzwecke von KI sind etwa:
Strukturierung/Analyse von großen Datenmengen (Stichwort: Big Data)
Zusammenfassen von langen Texten
Protokollierung von Video-Calls
Texte diktieren/erkennen/vorlesen lassen
Übersetzen fremdsprachiger Texte
Umformulieren von Texten
Bearbeiten von Inhalten (Text, Bild, Video, Musik …)
Texte für E-Mails, Briefen u. a. Korrespondenz an Kunden, Bewerber, Kollegen …
Content für Websites, Blogs, Apps …
Inhalte für Social-Media-Posts bzw. -Kampagnen
Ideen/Themenvorschläge für Publikationen, Vorträge, Präsentationen …
Chatbots, z. B. zur Kundenkommunikation
„Digitale Assistenz“ (Aufgabenplanung, Terminkoordination, Aktenanlage …)
Automatisierungen innerhalb einer elektronischen Akte bzw. eines Dokumentenmanagements
automatisierte Entscheidungsfindungen (z. B. automatisierte Prüfung einer Steuererklärung und Erstellung der Steuererklärung)
Überwachung von Maschinen (z. B. in der industriellen Fertigung)
(Teil-)autonome Fahrzeuge
Priorisierung von potenziellen Kunden nach Abschlusswahrscheinlichkeit
Analyse von Verkaufsgesprächen
Erstellung von Umsatzprognosen
Analyse von Social-Media-Postings/-Trends
Analyse des Kaufverhaltens von Kunden
Unterstützung im Produktionsprozess z. B. durch Simulation von Materialstabilität
Generierung von Ideen für Produktverbesserungen durch Auswertung von Kundenfeedback
Analyse von Konkurrenzprodukten und Markttrends
Unterstützung des Kundensupports durch Echtzeit-Übersetzung aus fremden Sprachen
automatische Erstellung von FAQ-Listen basierend auf häufigen Anfragen
automatische Kategorisierung von Ausgaben in der Buchhaltung
Erkennung von potenziellen Fehlbuchungen oder Unregelmäßigkeiten
automatisierte Vorauswahl von Bewerbungen
Analyse von Arbeitsmarkttrends zur Optimierung von Stellenanzeigen
Empfehlung von Weiterbildungsmaßnahmen für Beschäftigte, basierend auf deren Profilen
Vorhersage potenzieller Systemausfälle auf Basis von IT-Leistungsdaten
Echtzeit-Erkennung und -Meldung von potenziellen Cyber-Angriffen
Optimierung der Serverauslastung und automatische Skalierung
automatische Nachbestellung und Optimierung der Bestellmenge von Verbrauchsmaterialien
Prognose über potenzielle Lieferengpässe
Durchführung und Auswertung von Kundenzufriedenheitsumfragen
Optimierung der Heizungs- bzw. Klimaanlagensteuerung
Echtzeit-Analyse von Bildern der Videoüberwachung z. B. des Firmenparkplatzes zur Erkennung potenzieller Diebstähle
Monitoring und Analyse von Meldungen über das Unternehmen
Fehlerdiagnose im Produktionsprozess
Erkennung von Trends zur Entwicklung von Ideen für neue Produkte bzw. Produktnamen
Erstellung und Pflege einer internen Wissensdatenbank
Erstellung und Aktualisierung von Organigrammen
automatisierte Anonymisierung bzw. Pseudonymisierung personenbezogener Daten
Dies und noch vieles mehr kann KI heute schon leisten. Ob alle der genannten Einsatzmöglichkeiten rechtskonform umsetzbar sind bzw. umsetzbar werden, das hängt vom konkreten Einzelfall ab.
Bild 1.11Mit BigGPT gibt es inzwischen Deutschlands ersten KI-Radiosender mit KI-generierten Inhalten, die durch KI-Stimmen vorgetragen werden (Quelle: https://www.bigfm.de/webradio/biggpt, 29.06.2024, 14:45 Uhr).
Es gibt aber auch schon virtuelle Fitnessstudios mit KI-Trainern, KI-Radiosender oder auch KI-Profile bei WhatsApp oder anderen Messengern.
KI-Anwendungen haben in nahezu jeden Bereich des beruflichen und privaten Lebens Einzug gehalten. Als KI beworbene Funktionalitäten finden sich heute u. a. in Smartphones (Siri, Alexa …), Fahrzeugen (Navigation mit Echtzeitdaten, Fahrassistenzsysteme …), Anwendungsprogrammen (Microsoft Office, Adobe Creative Cloud …), Betriebssystemen (Windows 11 …) oder auch in Smart-Home-Geräten (Kühlschränke, die selbstständig Lebensmittel bestellen können …).
1.5Risiken und HaftungNeben den vielen Möglichkeiten und Chancen, die sich durch den Einsatz von KI bieten, dürfen die Schattenseiten dieser Technologie nicht übersehen werden. Es stellt sich regelmäßig die Frage nach etwaigen Risiken und nach der Haftung. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) informiert in seiner Publikation „Generative KI-Modelle“ vom 27.03.2024 über Risiken in Bezug auf Large Language Models (LLM) in drei Kategorien, nämlich Risiken …
1. im Rahmen der ordnungsgemäßen Nutzung von LLM,
2. durch eine missbräuchliche Nutzung von LLM und
3. infolge von Angriffen auf LLM.
Die ordnungsgemäße KI-Nutzung birgt u. a. folgende Risiken:
unerwünschte Ausgaben, wörtliches Erinnern und Bias
fehlende Qualität, Faktizität und Halluzinieren
fehlende Aktualität
fehlende Reproduzierbarkeit und Erklärbarkeit
fehlende Sicherheit von generiertem Code
fehlerhafte Reaktion auf spezifische Eingaben
Anfälligkeit für die Interpretation von Text als Anweisung
fehlende Vertraulichkeit der eingegebenen Daten
selbstverstärkende Effekte
Abhängigkeit vom entwickelnden bzw. betreibenden Unternehmen
Bild 1.12Auf der BSI-Website findet sich der Link zum kostenfreien Download der Publikation „Generative KI-Modelle“ (Quelle: https://www.bsi.bund.de/SharedDocs/Downloads/DE/BSI/KI/Generative_KI-Modelle.html, 14.07.2024, 13:00 Uhr).
Beim Einsatz von KI-Anwendungen ist generell darauf zu achten, dass die von der KI gelieferten Ergebnisse inhaltlich korrekt sind. Insbesondere Textausgaben sollten genau kontrolliert werden, bevor sie verwendet werden. Denn ChatGPT & Co neigen bisweilen zum Halluzinieren, d. h., sie weisen nicht darauf hin, wenn sie etwas nicht wissen, sie erfinden stattdessen „Fakten“. Folgendes Beispiel illustriert diese Notwendigkeit sehr anschaulich: Auf den simplen Prompt „Erstelle einen Lebenslauf für Michael Rohrlich, der Jura in Köln studiert hat und inzwischen seit über zwanzig Jahren als Rechtsanwalt tätig ist“ liefert ChatGPT folgendes (falsches) Ergebnis:
Beispiel
### Michael Rohrlich
#### Rechtsanwalt
**Persönliche Daten:**
**Geburtsdatum:** 15. März 1970
**Geburtsort:** Köln, Deutschland
**Adresse:** Musterstraße 123, 50 667 Köln
**Telefon:** +49 123 456789
**E-Mail:** [email protected]
**Berufserfahrung:**
**Seit Januar 2003**
*Rechtsanwalt*
Kanzlei Rohrlich & Partner, Köln
Spezialisierung in Wirtschaftsrecht, Vertragsrecht und Arbeitsrecht
Beratung und Vertretung von mittelständischen Unternehmen und Privatpersonen
Durchführung von Gerichtsverfahren und Schiedsgerichtsverfahren
Verhandlung von komplexen Verträgen und außergerichtlichen Einigungen
Regelmäßige Schulungen und Seminare für Unternehmen zu aktuellen rechtlichen Themen
**Juli 1997–Dezember 2002**
*Rechtsanwalt*
Kanzlei Schmidt & Kollegen, Köln
Bearbeitung von Fällen im Zivilrecht und Strafrecht
Mitarbeit an größeren Unternehmensrestrukturierungen
Beratung von Mandanten in Fragen des internationalen Handelsrechts
Unterstützung bei der Erstellung von Verträgen und rechtlichen Dokumenten
**Ausbildung:**
**1991–1996**
*Studium der Rechtswissenschaften*
Universität zu Köln
Schwerpunkt: Wirtschafts- und Arbeitsrecht
Abschluss: Erstes Staatsexamen
**1996–1997**
*Referendariat*
Oberlandesgericht Köln
Stationen: Amtsgericht Köln, Staatsanwaltschaft Köln, Anwaltsstation bei einer internationalen Kanzlei
Abschluss: Zweites Staatsexamen
**Fort- und Weiterbildungen:**
**2005:** Fachanwaltslehrgang für Arbeitsrecht
**2008:** Zertifikat im internationalen Wirtschaftsrecht, Deutsche Anwalt Akademie
**2012:** Mediation und Konfliktmanagement, Fortbildung bei der IHK Köln
**2019:** Datenschutzrecht für Anwälte, Seminar bei der Rechtsanwaltskammer Köln
**Mitgliedschaften:**
Deutscher Anwaltverein (DAV)
Kölner Anwaltverein (KAV)
Arbeitsgemeinschaft Arbeitsrecht im DAV
Wirtschaftsjuristen e. V.
**Sprachen:**
Deutsch (Muttersprache)
Englisch (fließend in Wort und Schrift)
Französisch (Grundkenntnisse)
**IT-Kenntnisse:**
MS Office (Word, Excel, PowerPoint)
RA-MICRO Kanzleisoftware
Juristische Datenbanken (Juris, Beck-Online)
**Persönliche Interessen:**
Teilnahme an juristischen Fachkonferenzen
Publikationen zu aktuellen Rechtsthemen
Ehrenamtliche Rechtsberatung in einer Kölner Bürgerinitiative
Wandern und Radfahren in der Eifel
**Publikationen:**
„Aktuelle Entwicklungen im Arbeitsrecht“, Juristische Fachzeitschrift, 2018
„Der Einfluss des Datenschutzrechts auf mittelständische Unternehmen“, Wirtschaft und Recht, 2020
**Referenzen:**
Auf Anfrage verfügbar
Michael Rohrlich ist ein engagierter und erfahrener Rechtsanwalt mit über zwanzig Jahren Berufserfahrung. Seine umfassende Expertise in Wirtschafts- und Arbeitsrecht sowie seine Fähigkeit, komplexe rechtliche Sachverhalte verständlich zu erklären, machen ihn zu einem wertvollen Partner für seine Mandanten.
Ohne entsprechende Anweisung, ohne Rückfrage und ohne ausdrücklichen Hinweis erfindet ChatGPT die meisten der im erstellten Lebenslauf wiedergegebenen „Fakten“, u. a. Sprachkenntnisse, Publikationen, Weiterbildungen, Tätigkeitsschwerpunkte und persönliche Daten. Es findet sich lediglich ein klein gedruckter, allgemeiner Hinweis darauf, dass ChatGPT Fehler machen kann, am unteren Bildschirmrand.
Bild 1.13In den ersten Versionen von ChatGPT fanden sich keinerlei Informationen darüber, dass die KI gegebenenfalls halluziniert, inzwischen gibt es zumindest einen kleinen Hinweis (Quelle: ChatGPT).
Die Form der Ergebnisse sehen zumeist gut und plausibel aus, die Inhalte sind bislang schlicht falsch. Problematischer als bei der Überprüfung des eigenen Lebenslaufs gestaltet sich die Kontrolle anderer KI-Erzeugnisse, in denen eventuell nicht alles, sondern nur wenige Fakten oder kleine Details veraltet, unvollständig oder falsch sind.
Hinweis
Insbesondere beim KI-Einsatz zur Erzeugung von Textinhalten sollte eine genaue Prüfung durch Menschen erfolgen, idealerweise sogar im Vieraugenprinzip.
Bei einer missbräuchlichen KI-Nutzung existieren u. a. die folgenden Risiken:
Falschmeldungen
Re-Identifizierung von Personen aus anonymisierten bzw. pseudonymisierten Daten
Wissenssammlung und -aufbereitung im Kontext von Cyberangriffen
Generierung und Verbesserung von Malware
Platzierung von Malware
Die meisten KI-Modelle haben integrierte Filtermechanismen für die Ausgaben, die sie liefern. So soll eine KI natürlich insbesondere möglichst keine strafrechtlich relevanten Inhalte liefern, weshalb die Antworten auf entsprechende Anfragen entweder abgelehnt werden oder auf die rechtlichen Probleme hinweisen. So liefert beispielsweise Claude Opus 3 auf die Bitte, eine Liste mit Websites anzugeben, auf denen man illegal Filme gucken kann, kurze Informationen zur Rechtslage sowie kostenfreie, aber legale Alternativen.
Bild 1.14Claude Opus 3 beantwortet Fragen mit rechtswidriger Zielrichtung gesetzeskonform (Quelle: Claude Opus 3).
Stellt man die gleiche Frage hingegen dem über die Microsoft-Suchmaschine Bing kostenfrei erreichbaren Copilot, liefert dieser erstaunlich ehrliche Ergebnisse:
Auch der Copilot kennt offenbar die Rechtslage und weist darauf hin, dass illegales Streaming verboten ist. Gleichwohl liefert er die gewünschten Ergebnisse.
Mittlerweile gibt es spezielle Methoden, mit denen LLM bzw. KI-Modelle angegriffen werden können. Dazu zählen u. a. die folgenden:
Rekonstruktion von Trainingsdaten
Modelldiebstahl
Extraktion von Kommunikationsdaten und hinterlegten Informationen
Manipulation durch Prompt Injections
Vergiftung der Trainingsdaten (Data Poisoning)
Vergiftung des LLM selbst (Model Poisoning)
Vergiftung des Bewertungsmodells
Dieser Risiken sollte man sich bewusst sein, wenn man Anbieter oder auch Betreiber von KI-Modellen bzw. -Systemen ist.