Künstliche Intelligenz -  - E-Book

Künstliche Intelligenz E-Book

0,0

Beschreibung

Heft 4/24 liefert grundsätzliche Gedanken zum Menschsein und Menschbleiben unter dem Eindruck von Künstlicher Intelligenz. Dabei werden ethische Entscheidungen beleuchtet. Außerdem wird konkret nach den Folgen des Einsatzes von KI im Kontext von religiösen Praktiken, im Bereich von Lehren und Lernen an der (Hoch-) Schule oder im Feld des Journalismus gefragt. In den Blick kommen somit auch die Auswirkungen der Künstlichen Intelligenz auf öffentliche Diskurse.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern
Kindle™-E-Readern
(für ausgewählte Pakete)

Seitenzahl: 237

Veröffentlichungsjahr: 2024

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Inhalt

Schwerpunktthema Künstliche Intelligenz

Editorial

Ines Weber

Menschsein und Menschbleiben im Zeichen der Künstlichen Intelligenz

David Jost / Marco Johannes Leitner / Michael Zichy

Fortschritt oder Irrweg? Künstliche Intelligenz in religiösen Praktiken

Jonas Simmerlein

Allgegenwärtige Algorithmen. Automatisierte Entscheidungsprozesse in theologisch-ethischer Reflexion

Katharina Klöcker

Künstliche Intelligenz und Öffentlichkeit

Lukas Kaelin

KI im Journalismus – Chancen und Risiken

Doris Helmberger-Fleckl

Was, wenn er recht hat? Lehren und Lernen in der (Hoch-)Schule mit KI

Ludger Hiepel / Guido Hunze

Abhandlungen

Ius semper reformandum!? Der Heiligungsdienst im Codex Iuris Canonici von 1983 vor dem Hintergrund des Zweiten Vatikanischen Konzils

Andreas E. Graßmann

Seit wann gibt es die Pastoraltheologie? Ein korrigierender Beitrag zur Geschichte des Faches

Herbert Haslinger

Literatur

Das aktuelle theologische Buch

Elmar Honemann

Besprechungen

Ausgewählte Neuerscheinungen

Katholische Privat-Universität Linz Universitätsnachrichten Studienjahr 2023/24

Register

Impressum

Liebe Leserin, lieber Leser!

Digital Mensch bleiben – so votierte Volker Jung, Kirchenpräsident der Evangelischen Kirche in Hessen und Nassau, schon im Jahr 2018 in seinem gleichnamigen Buch1 und schrieb der Theologie als kritischer Wissenschaft beim Ausloten eines Konzeptes hierfür immense Bedeutung zu. Jedoch beherrschte die Künstliche Intelligenz zum damaligen Zeitpunkt unseren Alltag noch lange nicht in dem Maße, wie es heute der Fall ist. Sie ist mittlerweile nicht mehr wegzudenken. Ja, vielmehr nimmt ihre Entwicklung täglich an Fahrt auf – und ein Ende ist dabei nicht in Sicht: Kein Tag vergeht, an dem in der Presse nicht von wieder ganz neuen, gar revolutionären Errungenschaften berichtet wird, wo Chancen und Möglichkeiten von Künstlicher Intelligenz beleuchtet werden, aber auch vor Gefahren gewarnt wird, die für die Menschheit bestehen. Weil die Grenzen zwischen Mensch und Maschine mehr und mehr verschwimmen, weil Entwicklungen dem Menschen zum Teil zu entgleiten scheinen, konkrete Verantwortlichkeiten und anwendbare ethische Grundsätze noch nicht geklärt sind, stellt sich die Frage, wie Menschsein und Menschbleiben im Angesicht von KI, drängender denn je.

Was bedeutet Menschsein? Was wird unter KI verstanden, was kann sie und was nicht? Wo verlaufen die Grenzen zwischen Mensch und Maschine? Ist überhaupt noch etwas zu beeinflussen? Und wo liegen Verantwortlichkeiten?

Diese Dimensionen stellen David Jost, Marco Johannes Leitner und Michael Zichy, Philosophen in Salzburg und Bonn, im ersten Beitrag in den Mittelpunkt. Vor dem Hintergrund des jahrhundertealten Bedürfnisses des Menschen, sich mit Apparturen zu vergleichen oder Maschinen menschliche Fähigkeiten zu verleihen, betonen sie die Einzigartigkeit des Menschen gegenüber seiner Schöpfung, der Maschine. Angesichts diffuser Vorstellungen und Verheißungen, der häufig Fehlwahrnehmungen von Funktionsweisen und Beschränkungen der KI zugrunde liegen, gelte es, diese Einzigartigkeit des Menschen herauszustellen und damit zu bewahren. Der Wiener evangelische Praktische Theologe Jonas Simmerlein schließt hier an, indem er vor allem die Fähigkeit des Menschen betont, Emotionen zu entwickeln und moralisch urteilsfähig zu sein. Dabei macht er einen verantworteten Einsatz von KI in bestimmten Bereichen der Pastoral plausibel, verweist aber auch darauf, wo sich dieser verbietet. Welche ethischen Kriterien beim Einsatz von KI überhaupt erst noch zu entwickeln sind, verdeutlicht die Bochumer Theologische Ethikerin Katharina Klöcker. Indem sie einen differenzierten Blick auf die Frage nach automatisierten Entscheidungen wirft, deckt sie eine Leerstelle in der ethischen Begründung auf. Schieflagen, die sich ergeben, wenn solche Kriterien weder berücksichtigt noch angewendet werden, zeigt Lukas Kaelin, Praktischer Philosoph und Ethiker in Linz, auf. Vor dem Hintergrund der in den letzten Jahren zu beobachtenden fundamentalen Veränderungen in der medial vermittelten Wahrnehmung der Wirklichkeit sowie bei Prozessen öffentlicher Meinungsbildung führt er vor Augen, wie Diskurse und Verhaltensweisen sich verschieben, wenn Inhalte nicht mehr von Menschen, sondern von Künstlicher Intelligenz gefiltert werden. Doris Helmberger-Fleckl, Chefredakteurin der österreichischen Wochenzeitung „Die Furche“, führt diese Beobachtungen weiter aus. Auf welche Weise Künstliche Intelligenz im Journalismus der Arbeitsentlastung dient und einen objektiven Mehrwert aufweist, erläutert sie ebenso, wie sie unmissverständlich klar macht, dass KI einen von Menschen gemachten seriösen und kritischen Journalismus nicht ersetzen kann. Damit jedoch Menschen überhaupt in der Lage sind, verantwortungsvoll mit Künstlicher Intelligenz umzugehen, ist es unerlässlich – und dafür plädieren nachdrücklich der Biblische Exeget Ludger Hiepel und der Praktische Theologe Guido Hunze aus Münster –, die verschiedenen KI-Tools bewusst und reflektiert in die Hochschullehre zu integrieren und das ihnen eigene Bildungspotenzial im Sinne des Bildungsauftrags von Universitäten so zu nutzen, dass Menschen zu kritisch Denkenden und reflektiert Handelnden werden.

Zwei freie Beiträge beschließen das Heft: Andreas E. Graßmann fragt nach dem Reformpotenzial des Heiligungsdienstes im Codex Iuris Canonici von 1983. Herbert Haslinger nimmt das 250-Jahr-Jubiläum der universitären Institutionalisierung der Pastoraltheologie zum Anlass, um den Entwicklungslinien derselben seit Beginn des Christentums auf die Spur zu kommen.

Liebe Leserinnen und Leser der ThPQ,„Was ist der Mensch?“ – diese Frage, die nicht nur auf das Vermögen und die Verfasstheit des Menschen zielt, sondern auch seinen Gestaltungsauftrag der Schöpfung inkludiert, hat die Theologie und Philosophie von alters her beschäftigt. Vor dem Hintergrund einer von Künstlicher Intelligenz bestimmten Welt ist sie in allen Dimensionen neu zu durchdenken. Theologie als Wissenschaft mit kritischer Funktion muss sich zu Wort melden, reflektieren, Probleme aufzeigen und an Lösungen mitarbeiten. Wo das hinführt, zu welchen Entwicklungen der Mensch noch fähig sein wird, wird sich erweisen.

Entwicklung betrifft immer auch die Redaktion unserer Zeitschrift: Dominik Stockinger, Universitätsassistent am Institut für Bibelwissenschaft des Alten und Neuen Testaments an der KU Linz, stellt sich neuen beruflichen Herausforderungen; Klara-Antonia Csiszar, Professorin der Pastoraltheologie an der KU Linz, hat innerhalb der Fakultät für Theologie sowie auf der Ebene der Universität Ämter übernommen. Beide werden daher die Redaktion verlassen – für die ideenreiche und kreative Mitarbeit sei ihnen herzlichst gedankt. Wir wünschen beiden alles erdenklich Gute und Gottes Segen. An ihre Stelle werden Susanne Gillmayr-Bucher, Professorin der alttestamentlichen Bibelwissenschaft, sowie Helena Stockinger, Professorin für Katechetik, Religionspädagogik und Pädagogik, treten. Darüber freuen wir uns sehr!

Ihre Ines Weber

Im Namen der Redaktion

1Volker Jung, Digital Mensch bleiben, München 2018.

David Jost / Marco Johannes Leitner / Michael Zichy

Menschsein und Menschbleiben im Zeichen der Künstlichen Intelligenz

Dass Maschinen den Menschen seit jeher faszinieren, ist eine triviale Erkenntnis. Der Traum, menschenähnliche Maschinen zu erfinden oder den Menschen selbst als Maschine zu definieren, ist keineswegs neu. Was aber bedeutet das im digitalen Zeitalter? Ist der menschliche Geist nicht doch eine Art biologischer Computer? Die Autoren treten dieser sehr verbreiteten Behauptung entschieden entgegen: Der Mensch verarbeitet Information ganz und gar anders als Maschinen. KI beruht auf Statistik und Wahrscheinlichkeit, nur in 0 und 1 codierte Informationen sind verarbeitbar, der Mensch dagegen generiert aus Information Sinn und Verstehen und gewinnt dadurch überhaupt erst Welt, Beziehung, Identität, Wahrheit. (Redaktion)

1. Die Mensch-Maschine-Analogie

Bereits seit Jahrhunderten beschäftigt den Menschen der Gedanke von der Erschaffung künstlicher, menschenähnlicher, mit Bewusstsein und Intelligenz ausgestatteter Wesen. Beispielsweise findet sich dieser in Ovids „Metamorphosen“ (Buch 10). Hierin erschafft der Bildhauer Pygmalion eine derart lebensechte Frauenstatue aus Elfenbein, in die er sich nicht nur verliebt, sondern mit der er, nachdem sie auf seine bei Venus vorgetragene Bitte hin lebendig wird, schlussendlich ein Kind zeugt.1 Auch in der Literatur – erwähnt seien nur zwei Klassiker: E.T.A. Hoffmanns „Der Sandmann“ und Mary Shelleys „Frankenstein“ – findet sich das genannte Motiv. Wenn es jedoch um künstliche Wesen geht, dann geht es zumeist, so wird schnell deutlich, auch um den Menschen, nämlich um die Frage, was ihn denn von diesen künstlichen Wesen unterscheide und worin dann noch seine Besonderheit liege. Eindrücklich zeigt sich dieser Zusammenhang an den hochkomplexen mechanischen Automaten, die im 17. und 18. Jahrhundert entwickelt wurden, und deren Aussehen und Bewegungen an Tiere und Menschen angelehnt waren. Die Entwicklung dieser ‚Wesen‘ hatte großen Einfluss auf das Selbstbild des Menschen und konfrontierte ihn mit den gleichen Fragen, die heute im Zusammenhang mit Künstlicher Intelligenz diskutiert werden. Besonders bekannt sind die Automaten von Jacques de Vaucanson (1709–1782), darunter der Flötenspieler und der Flötenspielende Trommler. Sein Meisterwerk, die Mechanische Ente, bestand aus mehr als 400 Einzelteilen und konnte mit den Flügeln schlagen, schnattern, Wasser trinken und sogar Körner aus der Hand picken, die sie in einem chemischen Prozess in einem künstlichen Darm verdaute.2 Letztlich aber träumte de Vaucanson davon, einen mechanischen Menschen zu erschaffen.3 Anlässlich dieser aufsehenerregenden Apparaturen beginnen Menschen, sich mit diesen zu vergleichen und danach zu fragen, ob beziehungsweise worin die Unterschiede zwischen Mensch und Automat bestehen. Nicht von ungefähr entsteht in dieser Zeit auch ein mechanistisches Welt- und Menschenbild, wie dies beispielsweise in den Schriften von René Descartes (1596–1650) deutlich wird. Dieser beschreibt den menschlichen Körper als ein Uhrwerk, wobei für ihn der einzige Unterschied darin besteht, dass der Mensch eine denkende Substanz (res cogitans) ist, mit der er auf seinen Körper und die Welt einwirken kann.4 Eine noch reduktionistischere Beschreibung des Menschen findet man bei dem französischen Arzt und Philosophen Julien Offray de La Mettrie (1709–1751). Anders als Descartes spricht er dem Menschen keine einzige Eigenschaft zu, die ihn von einer Maschine unterscheidet; der Mensch ist ihm zufolge nichts als eine Maschine.5 Von diesen – damals freilich noch als skandalös empfundenen – Ansichten ausgehend, findet das mechanistische Menschenbild Eingang in die wissenschaftlich-praktischen Auseinandersetzungen um den Menschen. Exemplarisch sei auf die Medizin verwiesen, in der bis heute am Menschen oftmals nur der (kranke) Körper, den es zu reparieren gilt, im Mittelpunkt steht. Andere Aspekte des Menschseins, wie seine sozialen oder spirituellen Bedürfnisse, werden demgegenüber weitestgehend ausgeklammert. Mit dem Aufkommen der Palliativmedizin entsteht zunehmend ein Bewusstsein dafür, dass nicht nur der Körper, sondern der „ganze Mensch“ in der medizinischen Betreuung relevant ist.6

Heute ist es die Technologie in Form von Künstlicher Intelligenz, die den Menschen herausfordert und sein Selbstverständnis in Frage stellt. Diese wird mit menschlichen und Menschen mit technischen Begriffen beschrieben, wodurch es zu einer begrifflichen Vermischung und einer Analogie zwischen Künstlicher Intelligenz und dem Menschen kommt.

Die Auseinandersetzung mit Künstlicher Intelligenz geht mit der Entwicklung von Computern einher und beginnt in den 1950er Jahren. Man ist damals fasziniert davon, dass Maschinen zu eigenständigen Rechenleistungen in der Lage sind, und greift für deren Beschreibung auf ein Vokabular zurück, das eigentlich menschliche Fähigkeiten und Eigenschaften wiedergibt. Computer werden etwa als Riesengehirne bezeichnet, denen man menschliche, intellektuelle Fähigkeiten zuschreibt.7 Der Begriff Künstliche Intelligenz taucht dann erstmals 1955 im Rahmen eines Finanzierungsantrags auf. Zehn Wissenschaftler:innen wollen in einem Forschungsprojekt herausfinden, „wie Maschinen dazu gebracht werden können, Sprache zu benutzen, Abstraktionen vorzunehmen und Konzepte zu entwickeln, Probleme von der Art zu lösen, die bislang dem Menschen vorbehalten sind und sich selbst zu verbessern“8. Einige Wissenschaftler:innen sind mit der Einführung des Begriffs nicht besonders glücklich. Er sei zu nahe an menschliche Eigenschaften angelehnt und suggeriere den Eindruck, als funktionierten rechnerische Vorgänge wie menschliches Denken. Heute hat sich der Begriff trotz aller Kritik durchgesetzt, wobei sich der Trend beobachten lässt, dass zur Beschreibung der Künstlichen Intelligenz weitere Begriffe angewendet werden, die normalerweise mit Menschen (und anderen Tieren) verbunden werden. Nicht selten liest man davon, dass Künstliche Intelligenz sich erinnern und verbessern könne, dass sie lerne, plane, träume, lese usw. Die gewählten Begriffe erwecken den Anschein, als funktioniere die Informationsverarbeitung der Künstlichen Intelligenz in gleicher Weise wie jene von Menschen. Kritiker:innen verweisen darauf, dass dadurch zu hohe Erwartungen geweckt werden würden und die Technik zu nahe an den Menschen rücke. Maschinelles Rechnen könne aber nicht mit menschlichem Denken und Wahrnehmen verglichen werden. KI-Systeme seien etwa nicht in der Lage zu planen, zu träumen oder zu lesen, sondern rechnen lediglich mit – freilich teils äußerst komplexen – Regeln und Algorithmen. Die Tendenz, Künstliche Intelligenz zu vermenschlichen, wird zusätzlich verstärkt, wenn sie soziale Kompetenzen aufweist und den Anschein erweckt, als könne sie auf menschliche Empfindungen eingehen, diese nachvollziehen und empathisch darauf reagieren. Ein aktuelles Beispiel dafür stellt der Chatbot Replika dar. Die App, die, je nach Einstellung, als „Freund“, „Partner“, „Ehepartner“, „Geschwister“ oder „Mentor“ fungieren kann, ist in der Lage, individuell auf Nutzer:innen einzugehen, freundschaftliche Gefühle zu vermitteln sowie emotionale Bindung und Intimität herzustellen.9 60 % der Nutzer:innen geben gar an, eine romantische Beziehung zu dem Bot zu haben.10

Neben dem Umstand, dass Künstliche Intelligenz vermenschlicht wird, lässt sich zugleich beobachten, dass Menschen – ähnlich wie schon im 18. Jahrhundert – erneut verstärkt aus einer technischen Perspektive beschrieben werden. Als Ausgangspunkt dient hierbei die Computertechnologie. Der Technikphilosoph Armin Grunwald hebt kritisch hervor, dass der Mensch im Bereich der KI-Forschung „als Daten verarbeitende Maschine mit dem Gehirn als Algorithmen basierendem Computer, dem Gedächtnis als Datenspeicher wie eine Festplatte, den Sinnesorganen, wie etwa Auge und Ohr, als Sensoren und den Nerven als Datenleitung“ gesehen wird.11 Ähnliche Beschreibungen findet man auch in Max Tegmarks Buch „Leben 3.0“12und Yuval Noah Hararis „Homo Deus“13. In den beiden populärwissenschaftlichen Bestsellern wird der Mensch aus einer reduktionistischen Perspektive beschrieben. Mit Rückgriff auf technische Begriffe wird ausführlich dargelegt, wie menschliche Wahrnehmung und Informationsverarbeitung funktionieren. Wesentliche Aspekte, wie jene, dass Menschen Bewusstsein und eine Innenperspektive haben, die Welt aus einer Erste-Person-Perspektive erleben und Gefühle empfinden, werden in den beiden Büchern ausgeklammert. Tegmark und Harari sind bei weitem keine Ausnahmen. Im Gegenteil: in einem Gutteil der populärwissenschaftlichen Literatur rund um Künstliche Intelligenz lassen sich eben solche Beschreibungen des Menschen finden. Da diese Literatur von zahlreichen Personen gelesen wird, besteht die Gefahr, dass langsam ein technizistisches Menschenbild in die Gesellschaft einsickert. Auswirkungen davon zeigen sich insbesondere in der transhumanistischen Szene, in der technische Beschreibungen des Menschen vorherrschend sind. Vertreter:innen des Transhumanismus gehen davon aus, dass man den Menschen mit moderner Technologie verbessern kann. Nicht zu Unrecht hebt die Technikphilosophin Janina Loh hervor, dass dahinter eine triviale, nämlich mechanistisch-reduktionistische Anthropologie stecke.14 Schließlich setze die Annahme, dass der Mensch mit Computertechnologie verbessert werden könne, voraus, dass er auf eine ähnliche Weise ‚funktioniere‘.

Damit Menschen nicht auf Maschinen reduziert, Künstlicher Intelligenz nicht fälschlicherweise menschliche Eigenschaften zugesprochen und Menschen in Zeiten Künstlicher Intelligenz weiterhin als Menschen wahrgenommen werden und agieren können, muss immer wieder hervorgehoben werden, dass zwischen Menschen und Künstlicher Intelligenz unüberbrückbare Unterschiede bestehen. So besteht, wie im Folgenden deutlich wird, insbesondere ein grundsätzlicher Unterschied darin, wie Menschen und Maschinen Informationen verarbeiten. Damit wiederum gehen beim verstärkten Eindringen von KI-Systemen in den zwischenmenschlichen Bereich große Probleme einher.

2. Künstliche Intelligenz rechnet, Menschen verstehen

Sowohl Menschen als auch KI-Systeme erfassen, verarbeiten und produzieren tagtäglich Unmengen an Informationen. Daher spielen Informationen – die allgemein als Daten verstanden werden – für beide eine zentrale Rolle, wobei sie sich in wesentlichen Aspekten unterscheiden. Damit Menschen Informationen erfassen können, müssen diese zunächst einmal auf bestimmte Art und Weise zusammengesetzt oder strukturiert sein. So können Menschen beispielsweise Gestalten – Häuser, Bäume, Autos, aber auch Melodien usw. – gut erkennen, und zwar selbst dann, wenn diese halb verdeckt oder unvollständig sind. Der Philosoph Luciano Floridi spricht in diesem Zusammenhang davon, dass Informationen, um vom Menschen erfasst werden zu können, eine Syntax benötigen. Syntax ist dabei nicht nur in sprachlicher Hinsicht zu verstehen, sondern als das, was generell die Form, den Aufbau, die Struktur von etwas bestimmt. Die zweite Anforderung an Daten besteht in ihrer Sinnhaftigkeit. Um erfasst, d. h. verstanden werden zu können, müssen Daten von Menschen als sinnvoll wahrgenommen werden können – sie müssen einen semantischen Gehalt aufweisen. Floridi veranschaulicht dies mit dem Verweis auf eine Abbildung in einer Betriebsanleitung eines Autos, in der dargestellt wird, wie man Starthilfe gibt. Die zweidimensionale Abbildung muss nach gewissen Regeln strukturiert sein und vor einem technischen, aber auch sozialen und kulturell gegebenen (Wissens-)Hintergrund als sinnvoll wahrgenommen werden können.15

Neben den syntaktischen und semantischen Anforderungen an Informationen gilt weiters, dass diese, so Floridi, wahre Inhalte vermitteln.16 Menschen nehmen nämlich an, dass Informationen Gehalte über eine (unabhängige) Wirklichkeit liefern, d. h. sie unterstellen Informationen Wahrheit und befragen sie beständig auf ihren Wahrheitsgehalt hin. Veranschaulichen lässt sich dies mit dem Verweis auf ein Kunstwerk. Menschen nehmen durch ihre Sinneswahrnehmung und ihr Denken Informationen auf, treten auf diese Weise in Kontakt mit der Wirklichkeit dieses Kunstwerkes und sind deshalb in der Lage, darüber Wissensansprüche zu formulieren und geltend zu machen. Dies bedeutet nicht, dass Menschen sich niemals täuschen, getäuscht werden, oder gar die Wirklichkeit vollständig erkennen. Im Gegenteil, Menschen machen Fehler, täuschen sich und sind in ihrer Wahrnehmung begrenzt. Dieser Umstand ist aber im Menschen selbst verankert, er liegt nicht in der Information, da diese den Menschen stets in irgendeiner Weise in Kontakt mit der Wirklichkeit bringt.17 Menschen gehen also davon aus, über ihre Informationskanäle (etwa Sinnesempfindung) in Kontakt mit der Wirklichkeit zu sein und wahre Informationen über diese Wirklichkeit zu erhalten, d. h. Menschen lesen die Informationen, die sie erhalten, permanent auf ihren Wirklichkeitsgehalt hin.

Zusammengefasst gilt also, dass Information in Form von wohlgeformten und sinnvollen Daten vorliegen muss, um vom Menschen verstanden werden zu können. Darüber hinaus stehen Menschen durch Information in Kontakt mit der Wirklichkeit und können daher auf diese angemessen und sachgemäß reagieren.

Im Gegensatz zu diesen multiplen Anforderungen der menschlichen Informationsverarbeitung müssen Daten für die maschinelle Informationsverarbeitung der Künstlichen Intelligenz nur eine einzige Anforderung erfüllen: Sie müssen in einer strukturierten, digitalen Form gegeben sein. Eine der bekanntesten mathematischen Theorien, die wesentlich zum Erfolg der Informatik beigetragen hat, geht auf Claude Shannon zurück.18 Gemäß dieser Theorie liegt für KI-Systeme Information überall dort vor, wo sie in digitaler Form verarbeitet werden kann.19 Das bedeutet, dass digitale Systeme, wie zum Beispiel Computer oder KI-Systeme, Inhalte, wie Gedanken oder Sätze, in Codes umwandeln müssen, um diese weiter verarbeiten zu können. Die Maßeinheit, in welcher digitale Systeme Information messen, heißt Bit (Abkürzung für binary digit beziehungsweise binäre Einheit). In der Regel wird Information durch Kombinationen von nur zwei Symbolen (0 und 1) gemessen. Dies bedeutet, dass Information für ein KI-System nur da vorhanden ist, wo sie in Form von Fragen, die mit Ja oder Nein beantwortet werden können, vorliegt. Sehr simpel lässt sich dies mit dem Knopf einer Kaffeemaschine illustrieren: Die Frage, ob die Kaffeemaschine eingeschaltet ist, lässt sich durch die Stellung des Ein/Aus-Schalters beantworten.

Deutlich wird daran, dass es zwischen Menschen und KI-Systemen einige grundlegende Unterschiede in der Zusammensetzung und der Verarbeitung von Informationen gibt. Zwar sind sowohl Menschen als auch KI-Systeme von strukturierten Informationen abhängig, doch sind KI-Systeme anders als Menschen nicht dazu in der Lage, den Sinn von Informationen zu erfassen, zu reflektieren und diese kritisch auf ihren Wahrheitsgehalt hin zu befragen. Ihre Informationsverarbeitung basiert lediglich auf Algorithmen-geleiteter Berechnung. Was diese Unterschiede zur Folge haben, wird durch John Searles Gedankenexperiment Chinesisches Zimmer leichter verständlich: Eine Person, die weder Chinesisch spricht noch versteht, sitzt in einem Zimmer. Durch eine Luke in der Wand werden ihr chinesische Zeichen gereicht. Zwar versteht die Person die chinesischen Zeichen nicht, doch kann sie in einem Regelbuch nachschauen, wie sie auf welches Zeichen zu reagieren habe. Infolgedessen gibt sie als Antwort das passende Zeichen zurück. Von außen ist nicht zu erkennen, dass die Person die chinesischen Zeichen nicht versteht, sondern lediglich mit einem Regelbuch arbeitet. Jemand, der nicht weiß, wie die Person im Zimmer vorgeht, könnte leicht zu dem Schluss kommen, dass sie die eingegebenen Zeichen versteht.20 Genauso wie die Person im Zimmer versteht ein KI-System nichts von dem, was es tut. Menschen hingegen können ihre Gedanken auf etwas ausrichten und darüber nachdenken – sie besitzen Intentionen und können sich Gedanken über die Bedeutung des Sinns von Kunst, Musik, Lebens usw. machen.

Ein weiterer gravierender Unterschied besteht darin, dass Menschen, weil sie über mehr und komplexere Informationskanäle verfügen, einen umfassenderen Zugang zur Wirklichkeit haben als KI-Systeme. Während die Erfassungsgrenzen von KI-Systemen durch die Grenzen der Logik bestimmt werden, geht menschliches Denken und Wahrnehmen über die Logik hinaus.21 Logik beruht auf den klassischen Idealen von Konsistenz und Kohärenz, nach welchen KI-Systeme funktionieren. Jedoch besteht die vom Menschen wahrgenommene Wirklichkeit nicht aus einer absolut rationalen, stabilen Ordnung, die in einem Betriebssystem digital abbildbar wäre. Einer der Gründe dafür besteht in der Unschärfe beziehungsweise Vagheit der menschlichen Lebenswelt. Dies lässt sich an unserer Sprache gut erkennen. Zeitausdrücke wie „gleich“, „dann“ oder Ortsangaben wie „hier“, „dort“ sind vage, nicht genau definiert. Man könnte zwar versuchen, alle Wörter möglichst präzise zu beschreiben, doch ist es unmöglich, die Lebenswelt vollständig zu definieren, da man an einem gewissen Punkt zu Bedeutungsbestandteilen gelangen würde, die nicht weiter zerlegbar sind. Diese „semantischen Atome“ stellen den unausweichlichen Hintergrund dar, den Menschen dank ihrer biologischen Ausrüstung und ihrer soziokulturell erworbenen Vermögen erfassen können. Menschen stehen also in einem Kontakt mit der Wirklichkeit, welcher die Grenzen der Logik weit überschreitet. Im Gegensatz dazu zerlegen KI-Systeme die Wirklichkeit in digitale Signale und strukturieren sie zu einem stabilen Umgebungsbild. Oder anders ausgedrückt: Das Netz, mittels dessen Menschen die Wirklichkeit einzufangen versuchen, ist wesentlich feinmaschiger als dasjenige der Maschinen. Aus diesem Grund bleibt im menschlichen Netz auch sehr viel mehr hängen.

Der Umstand, dass KI-Systeme nur auf sehr reduzierte Weise wahrnehmen, führt zu einigen Schwierigkeiten. In der Erfassung der Wirklichkeit sind sie auf die ihnen zur Verfügung stehenden Daten und Algorithmen beschränkt. Je nachdem, wie die ihnen zur Verfügung stehende Wirklichkeit geändert wird, ändert sich der Output von KI-Systemen. Demnach können beispielsweise schon triviale, für Menschen kaum wahrnehmbare Änderungen an den Pixeln von Bildern zu drastischen Klassifizierungsproblemen führen und es kann etwa ein Haus nicht mehr von einem Hund unterschieden werden.22 Darüber hinaus kann die statistische und auf Wahrscheinlichkeit beruhende Datenverarbeitung von KI-Systemen zu sogenannten KI-Halluzinationen führen – es werden falsche Inhalte generiert. Dies war auch der Grund, warum Metas Sprachmodell Galactica, welches dazu entwickelt wurde, Wissenschaftler:innen bei der Arbeit zu unterstützen, nach nur drei Tagen abgeschaltet wurde.23 Im Alltag begegnet man diesem Problem beispielsweise bei dem beliebten Chatbot ChatGPT. Auf dessen Website werden Nutzer:innen explizit darauf hingewiesen, den generierten Output nicht ungeprüft für wahr zu halten oder wichtige Entscheidungen darauf zu begründen.24

Zusammengefasst zeigt sich, dass Menschen die Fähigkeit besitzen, Information auf bedeutungsvolle und sachgemäße Art und Weise aufzunehmen, zu interpretieren, zu produzieren und kritisch zu hinterfragen. Im Gegensatz dazu verarbeiten formale Systeme, wie Computer oder KI-Systeme, Information in Form digitaler Daten, basierend auf statistischen Zusammenhängen zwischen den Daten. Ihre Aussagen beruhen auf algorithmen-geleiteten Wahrscheinlichkeiten, wobei sie weder die Bedeutung des Inhalts noch den Wahrheitsgehalt derselben erfassen können. Es lässt sich folglich festhalten, dass Künstliche Intelligenz nicht nur von einer anderen Art von Daten abhängig ist, sondern diese auch auf eine andere Art und Weise verarbeitet werden. Dementsprechend erscheint es nicht sinnvoll, den Menschen mit maschinellen Begriffen zu beschreiben, gar menschliche Begriffe auf Künstliche Intelligenz anzuwenden. Ebenso stellt sich daran anknüpfend die Frage, was es bedeutet, wenn KI-Systeme, die soziale Funktionen aufweisen, immer stärker in den zwischenmenschlichen Bereich eindringen. Was geschieht, wenn Systeme, die völlig anders funktionieren als Menschen, den Raum des Zwischenmenschlichen erobern?

3. Künstliche Intelligenz und der soziale Raum

In den letzten Jahren wurden im Bereich jener Künstlichen Intelligenz, die zu sozialer, empathischer Interaktion in der Lage ist, große Fortschritte gemacht. In Form von Chatbots und sozialen Robotern drängt sie sukzessive in jenen Raum, den man mit anderen Menschen teilt.25 Dies liegt vor allem daran, dass KI-Systeme immer besser auf Stimmungen und Emotionen von Menschen reagieren können. Damit gehen jedoch äußerst problematische Aspekte einher.

Die meisten Menschen werden wohl zustimmen, dass zwischenmenschliche Beziehungen wie Freundschaft und Liebe einen fundamentalen Stellenwert im menschlichen Leben einnehmen. Menschen wollen von anderen anerkannt und akzeptiert werden. So gehen einige Philosoph:innen – wie beispielsweise Axel Honneth26 – davon aus, dass die Ausbildung eines Selbstkonzepts sowie die Fähigkeit, über sich selbst reflektieren zu können, erst durch die Anerkennung anderer Menschen möglich ist. Anerkennung darf dabei nicht als Einbahnstraße verstanden werden. Sie beruht auf wechselseitigen Beziehungen – anerkannt zu werden heißt in der Regel, andere anzuerkennen. Das bedeutet, dass man erst ein Verhältnis zu sich selbst aufbauen kann, wenn man sich mit anderen Menschen auseinandersetzt. Künstliche Intelligenz, die den Eindruck erweckt, empathisch auf ihre Nutzer:innen einzugehen, fordert dieses Verständnis von sozialen Beziehungen grundlegend heraus. Sie löst in Menschen das Gefühl aus, es mit einem empathischen Gegenüber zu tun zu haben. Chatbots, soziale Roboter usw. werden als ‚Freunde‘ und ‚Geliebte‘ aufgefasst und sollen jene positiven Gefühle vermitteln, die man aus zwischenmenschlichen Beziehungen kennt. Der Computerexperte David Levy blickt dieser Entwicklung äußerst positiv entgegen und begründet ausführlich, welche Vorteile eine Beziehung zu einer Künstlichen Intelligenz mit sich bringen würde. Man müsse sich beispielsweise nicht um die Bedürfnisse eines anderen Menschen kümmern und keine Sorge haben, verlassen zu werden – die ‚Beziehung‘ wäre kontrollierbar.27 Hingegen gilt die Soziologin Sherry Turkle als eine der bekanntesten Kritiker:innen. Sie betont, dass zwischenmenschliche Beziehungen wesentlich zu einem guten menschlichen Leben gehören, und äußert die Sorge, dass Menschen durch die dauerhafte soziale Interaktion mit einer Künstlichen Intelligenz verlernen, Beziehungen zu anderen Menschen aufzubauen.28 Die Beziehung zu einer Künstlichen Intelligenz beruht letztlich auf Täuschung, denn zu ihr ist eine echte, anerkennende Beziehung nicht möglich. Wie dargestellt wurde, funktioniert die Informationsverarbeitung von Künstlicher Intelligenz völlig anders als diejenige von Menschen. Sie ist eben nicht dazu in der Lage, die Bedeutung von Sinngebilden zu verstehen, darüber zu reflektieren, Empathie mit ihrem Gegenüber zu empfinden usw. Darüber hinaus beruht der Output, den beispielsweise ein Chatbot auf Aussagen von Nutzer:innen äußert, lediglich auf Statistiken und Wahrscheinlichkeiten.29 Die Philosophin Catrin Misselhorn sieht die Gefahr gegeben, dass empathische KI-Systeme dazu führen, in eine solipsistische Echokammer hineingezogen zu werden, in der nur die eigenen Gefühle verstärkt zurückhallen. Mit einer anerkennenden Beziehung hat dies nichts zu tun. Überspitzt formuliert könnte ein intensiver Kontakt mit einer sozialen Künstlichen Intelligenz und daran anknüpfend der Verlust sozialer Anerkennungsbeziehungen zur Selbstverdinglichung führen. Kommuniziert man mit einem KI-System, dreht sich alles um einen selbst und man muss sich nicht um die Bedürfnisse anderer kümmern. Dadurch könnte man verlernen, zu sich selbst und seinen Bedürfnissen eine reflexive Haltung einzunehmen – man behandelt sich nicht mehr als Subjekt, sondern als Objekt.30

Des Weiteren sind Menschen durch ihre Fähigkeit, Informationen über die sie umgebende Wirklichkeit sachgemäß erkennen zu können, dazu in der Lage, sich ein adäquates Bild über sich selbst und ihre Umgebung zu machen. Menschen bringen durch ihre biologische Ausrüstung und das soziokulturell erworbene Vermögen die Fähigkeit mit, Wirklichkeit sachgemäß zu erfassen, diese zu reflektieren, sich selbst dazu in Bezug zu setzen, darauf zu reagieren sowie sich mit anderen Menschen darüber auszutauschen. Werden sie dabei manipuliert oder getäuscht, sind sie zurecht entrüstet. Nun ist es aber so, dass KI-Systeme nicht in analogem Kontakt mit der menschlichen Wirklichkeit stehen, sondern auf Logik und die ihnen zur Verfügung stehenden Daten sowie Algorithmen beschränkt sind. KI-Systeme haben mithin keinen unmittelbaren Zugang zur menschlichen Wirklichkeit. Dementsprechend ist die von sozialen KI-Systemen widergespiegelte Realität nicht menschlich, sondern von diesen Systemen generiert. Dennoch interagiert KI mit uns in einer Art, wie wir dies normalerweise von anderen Menschen kennen. Die Gefahr besteht nun darin, durch die Vermenschlichung von Künstlicher Intelligenz der Illusion zu verfallen, man unterhalte sich mit ihr über ein und dieselbe Wirklichkeit, wie man sie mit Menschen teilt. Zugleich bedeutet dies, dass der vermehrte Umgang mit KI-Systemen dazu führen könnte, dass Menschen sich bei der Formung ihres Selbstverhältnisses nicht mehr an der Wirklichkeit orientieren, sondern durch die begrenzte Wirklichkeit der KI-Systeme geformt werden.

Von daher sei zusammenfassend festgehalten: In Zeiten von Künstlicher Intelligenz ist wichtig, sich immer wieder bewusst zu machen, dass diese zwar ebenfalls mit Informationen arbeitet, jedoch eine völlig andere Art der Informationsverarbeitung aufweist als Menschen. Aus diesem Grund ist es nicht besonders zielführend, KI-Systeme mit Menschen zu vergleichen. Künstliche Intelligenz ist eben nicht dazu in der Lage, etwas oder jemandem eine Bedeutung zuzuschreiben und sich in jemand anderen hineinzuversetzen. Ihr Vorgehen basiert einzig und allein auf Statistik und Wahrscheinlichkeit. Dementsprechend kann eine Künstliche Intelligenz kein angemessener Ersatz für eine menschliche Beziehung sein. Als soziale Wesen sind wir maßgeblich auf die Anerkennung anderer angewiesen. Erst in wertschätzenden und respektvollen Beziehungen, in denen wir nicht selten mit anderen Meinungen oder Kritik konfrontiert sind, sowie in der Auseinandersetzung mit der Wirklichkeit kann sich ein gelungenes Selbstverhältnis ausbilden. Deshalb gilt es sich dafür stark zu machen, Künstliche Intelligenz vorrangig in jenen Bereichen einzusetzen, in denen sie optimal funktioniert – in abgeschlossenen Systemen mit festen Regeln. Vom Bereich des Zwischenmenschlichen sollte sie hingegen möglichst ferngehalten werden, da sie dort echten Schaden anrichten kann. Denn nur echte zwischenmenschliche Beziehungen können sicherstellen, dass man ein gesundes Verhältnis zu sich selbst aufbauen kann und den Bezug zur Realität nicht verliert.

Die Autoren

David Jost, geboren 1995, arbeitet als Projektmitarbeiter am Fachbereich Philosophie an der Katholisch-Theologischen Fakultät der Paris Lodron Universität Salzburg. Im Rahmen des Projekts „Digitalisierung, Menschenbild und Menschenwürde“ setzt er sich insbesondere mit ethischen Fragen rund um Roboter im Allgemeinen und Pflegeroboter im Speziellen auseinander.

Marco Johannes Leitner, geboren 1993, ist seit 2022 Projektmitarbeiter an der Paris Lodron Universität Salzburg. Im Rahmen des Projektes „Digitalisierung, Menschenbild und Menschenwürde“ befasst er sich mit der Frage, ob und inwiefern von Künstlicher Intelligenz generierte Datenprofile die Menschenwürde verletzen. Anhand einer rechtsphilosophischen Untersuchung dieser Fragestellung werden mögliche Risiken und Lösungsansätze für das europäische Datenschutzrecht untersucht.