Künstliche Intelligenz und Psychotherapie - Christiane Eichenberg - E-Book

Künstliche Intelligenz und Psychotherapie E-Book

Christiane Eichenberg

0,0
25,99 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.

Mehr erfahren.
Beschreibung

Seelenheil im Dialog mit der Maschine? Erste umfassende Darstellung der Schnittstelle zwischen KI und Psychotherapie Verbindet technisches Know-how mit psychotherapeutischer Expertise und realen Anwendungsbeispielen Behandelt zentrale Fragen der psychischen Gesundheitsversorgung Die rasanten Fortschritte der Künstlichen Intelligenz eröffnen neue Horizonte in der Psychotherapie: von KI-gestützter Diagnostik über personalisierte Therapieansätze bis hin zu virtuellen Therapeuten. Die Autor:innen beleuchten, wie KI die therapeutische Praxis verändert – mitsamt Chancen, Risiken und ethischen Fragen. Es bietet einen Überblick über aktuelle Technologien, konkrete Anwendungsfelder und gesellschaftliche Implikationen. Dabei steht stets die zentrale Frage im Raum: Kann KI den Menschen im therapeutischen Prozess unterstützen – oder gar ersetzen?

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
MOBI

Seitenzahl: 260

Veröffentlichungsjahr: 2026

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Dies ist der Umschlag des Buches »Künstliche Intelligenz und Psychotherapie« von Christiane Eichenberg, Henrik Bischoff, Julian Krusche

Christiane Eichenberg Henrik Bischoff Julian Krusche

Künstliche Intelligenz und Psychotherapie

Klett-​Cotta

Impressum

Dieses E-Book basiert auf der aktuellen Auflage der Printausgabe zum Zeitpunkt des Erwerbs.

Klett-Cotta

www.klett-cotta.de

J. G. Cotta’sche Buchhandlung Nachfolger GmbH

Rotebühlstraße 77, 70178 Stuttgart

Fragen zur Produktsicherheit: [email protected]

© 2026 by J. G. Cotta’sche Buchhandlung Nachfolger GmbH, gegr. 1659, Stuttgart

Alle Rechte inklusive der Nutzung des Werkes für Text und

Data Mining i.S.v. § 44b UrhG vorbehalten

Cover: Bettina Herrmann, Stuttgart

unter Verwendung einer Abbildung von pop_jop/iStock by Getty Images

Gesetzt von Dörlemann Satz, Lemförde

Gedruckt und gebunden von CPI – Clausen & Bosse, Leck

ISBN 978-3-608-98936-6

E-Book ISBN 978-3-608-12588-7

PDF-E-Book ISBN 978-3-608-20756-9

Bibliografische Information der Deutschen Nationalbibliothek

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der

Deutschen Nationalbibliografie; detaillierte bibliografische Daten

sind im Internet über http://dnb.d-nb.de abrufbar.

Inhalt

Einleitung

Revolution der Psychotherapie? Chancen und Herausforderungen durch Künstliche Intelligenz

Potenziale: Zugang, Skalierbarkeit, Entstigmatisierung und Personalisierung

Herausforderungen: Beziehung, Ethik und Verantwortung

Zwischen Innovation und Regulierung

Ersetzen Computer den Therapeuten? Ängste im Berufsstand vs. Hoffnungen bei Patient:innen?

Teil 1

Grundlagen von KI in der Psychotherapie

Kapitel 1

Was ist Künstliche Intelligenz?

1.1 Definition und Abgrenzung

Abgrenzung zu verwandten Technologien

1.2 Technische Grundlagen

Maschinelles Lernen

Deep Learning

Grenzen und Herausforderungen

1.3 Natural Language Processing

NLP-​Anwendungen in der Psychotherapie

1.4 Relevanz für die psychotherapeutische Praxis

KI als Werkzeug, nicht als Ersatz

Kapitel 2

Entwicklung der digitalen Psychotherapie – ein kurzer historischer Überblick

2.1 Anfänge: ELIZA

2.2 Online-​Beratung

2.3 Online-​Therapie

Digitale Gesundheitsanwendungen

Videotherapie

Kapitel 3

Schnittstellen von KI und Psychotherapie

Teil 2

Anwendungsfelder und Technologien

Kapitel 4

Chatbots und virtuelle Therapeut:innen

4.1 Von ELIZA zu modernen Therapie-​Chatbots

Allgemeine LLMs

4.2 Grenzen und Möglichkeiten

Kapitel 5

KI in der Diagnostik und Früherkennung

5.1 Mustererkennung in Sprache und Text

5.2 Emotionserkennung durch Bild-​ und Sprachanalyse

5.3 Grenzen und Möglichkeiten

Kapitel 6

Personalisierte Therapieansätze durch KI

6.1 Vor der Therapie: Prognose und passgenaues Matching

6.2 Während der Therapie: Dynamische Anpassung und adaptive Steuerung

6.3 Übergreifend: Sprache, Mustererkennung und kontinuierliches Lernen

Emotionale Sprachverarbeitung: Natural Language Processing

Cluster-​basierte Therapiepfade (»Precision Pathways«): Von digitalen Mustern zu passgenauer Behandlung

Feedback-​Loops und Longitudinales Lernen

6.4 Vorhersage von Therapieerfolgen

6.5 Grenzen und Möglichkeiten

Kapitel 7

KI-​unterstützte Virtual-​Reality-​Anwendungen und Serious Games

7.1 Grundlagen der Technologien

7.2 Anwendungsfelder und therapeutische Ansätze

7.3 Potenzial von KI-​Funktionen in VR-​Anwendungen und Serious Games

7.4 Grenzen und Möglichkeiten

Kapitel 8

Praktische Umsetzung für KI in der Psychotherapieausbildung

8.1 Aktuelle Anwendungen in der Psychotherapieausbildung

8.2 Virtuelle Therapeut:innen-​Trainings: Lernen durch KI-​Supervision

8.3 Personalisierte Lernplattformen: Individualisierte Ausbildungswege

Internationale adaptive Lernsysteme

Deutsche Entwicklungen

Kapitel 9

KI in der Psychotherapieforschung

9.1 Automatisierte Analyse großer Datenmengen

9.2 Vorhersage von Therapieerfolg und -verlauf

9.3 Neue Möglichkeiten durch große Datenmengen

Split/Analyze/Meta-​Analyze-​Ansatz (SAM-​Ansatz)

9.4 Automatisierung wissenschaftlicher Workflows

9.5 Neue Forschungsparadigmen und Erkenntnismöglichkeiten

Von hypothesengetriebener zu explorativer Forschung

Multimodale Analyse und Präzisionspsychotherapie

Methodische und ethische Überlegungen

Zukunftsperspektiven und Forschungsrichtungen

Kapitel 10

KI in der Psychotherapie: Anwendung in verschiedenen Schulen

10.1 Therapieschulenspezifische Herausforderungen bei der KI-​Integration

Verhaltenstherapie und KI: Struktur, Standardisierung und technische Affinität

Psychodynamische Verfahren und KI: Inkompatibilitäten und Potenziale

10.2 Ethische Überlegungen

Fazit

10.3 Der Einfluss von Künstlicher Intelligenz auf die therapeutische Beziehung

Formen der Nutzung und Auswirkungen auf die therapeutische Dyade

Chancen, Risiken und ethische Spannungsfelder

Integration digitaler Erfahrungen in die therapeutische Arbeit

Einfluss auf »herkömmliche« Interaktionen

Kapitel 11

Klinisch relevante Auswirkungen der KI-​Nutzung

Teil 3

Ethische, rechtliche und praktische Aspekte

Kapitel 12

Ethik und Datenschutz

12.1 Ethische Fragestellungen und Verantwortung

Unklarheiten über Haftung bei Fehlern durch KI

Transparenz und Erklärbarkeit

Algorithmische Verzerrungen und Diskriminierung

Gefahr der Abhängigkeit

Patientenautonomie

Sicherheit und Krisenmanagement

12.2 Datensicherheit in der KI-​gestützten Therapie

Rechtliche Rahmenbedingungen und Compliance

Technische Schutzmaßnahmen

Risiken durch Cloud-​ und Drittanbieter

Notwendigkeit organisatorischer Maßnahmen

Zukunftsperspektiven

Kapitel 13

Mensch-​Maschine-​Interaktion in der Therapie

13.1 Akzeptanz von KI-​Tools bei Psychotherapeut:innen und Patient:innen

Akzeptanz von KI-​Tools bei Psychotherapeut:innen

Akzeptanz von KI-​Tools bei Patient:innen

13.2 Vertrauen und Grenzen der Automatisierung

Grenzen der Automatisierung in der Psychotherapie

Gestaltung der Mensch-​Maschine-​Interaktion in der Psychotherapie

Kapitel 14

Regulierung und Zertifizierung von KI-​Therapie-​Tools

14.1 Regulatorischer Rahmen

14.2 Zertifizierung

Risikoklassifizierung von KI-​basierten Medizinprodukten nach AIA und MDR

14.3 Zukünftige Entwicklungen

Teil 4

Ausblick und Zukunftsvisionen

Kapitel 15

Die Zukunft der Psychotherapie mit KI

15.1 Trends und Prognosen: Risk of mechanisation

15.2 Verschiedene Szenarien

Szenario A: Stabiler Hybrid-​Status quo

Szenario B: Der KI-​Kotherapeut

Szenario C: Teilautomatisierte Versorgung

Szenario D: Vollständiger Ersatz

15.3 Rolle der Therapeut:innen im Zeitalter der KI

15.4 Realistisch-​pragmatische Prognose

Kapitel 16

Fazit und Handlungsempfehlungen

16.1 Ein Fazit

Orientierung statt Perfektion

Erweiterte Anforderungen bis hin zu veränderten Rollenbildern für Therapeut:innen

16.2 Handlungsempfehlungen für die Praxis

16.3 Ausblick: Psychotherapie im hybriden Zeitalter

Literatur

Die Autor:innen

Einleitung

Revolution der Psychotherapie? Chancen und Herausforderungen durch Künstliche Intelligenz

Die Integration Künstlicher Intelligenz (KI) in die Psychotherapie hat in den letzten Jahren zunehmende Aufmerksamkeit in Fachkreisen und der breiten Öffentlichkeit erfahren. Während einige Fachvertreter:innen KI als potenziellen Innovationsmotor betrachten, der Zugangshürden senkt und neue Behandlungsmöglichkeiten eröffnet, warnen andere vor tiefgreifenden ethischen, interpersonellen und professionellen Herausforderungen oder sogar Gefahren. Die Diskussion ist durch eine hohe Ambivalenz gekennzeichnet, die sowohl Chancen als auch Risiken der technologischen Entwicklung betont.

Potenziale: Zugang, Skalierbarkeit, Entstigmatisierung und Personalisierung

Ein zentrales Argument für den Einsatz von KI in der Psychotherapie ist die Möglichkeit, Versorgungslücken zu schließen. In vielen Regionen der Welt besteht ein gravierender Mangel an qualifizierten Therapeut:innen. KI-​gestützte Chatbots wie »Woebot« oder »Therabot« haben in ersten randomisiert-​kontrollierten Studien eine signifikante Reduktion von u. a. depressiven und ängstlichen Symptomen gezeigt (Fitzpatrick et al., 2017; Heinz et al., 2025). Derartige Systeme bieten niedrigschwellige Hilfe rund um die Uhr und können insbesondere für Personen mit milden Symptomen eine erste Entlastung darstellen. In dem Sinne ist die Skalierbarkeit, d. h. die Fähigkeit digitaler Interventionen, eine große Anzahl von Patient:innen gleichzeitig zu betreuen, ohne dass die Qualität der Behandlung leidet oder zusätzliche personelle Ressourcen benötigt werden, gerade in Regionen mit begrenztem Zugang zu psychotherapeutischer Versorgung von immensem Vorteil.

Darüber hinaus könnte der Einsatz von KI zur Entstigmatisierung psychischer Erkrankungen beitragen. Die Interaktion mit einem digitalen System scheint für viele weniger schambesetzt als das Gespräch mit einer realen Person, wodurch die Bereitschaft zur Inanspruchnahme psychologischer Hilfe steigen kann (Inkster et al., 2018). Auch die Möglichkeit zur individuellen Anpassung durch Echtzeit-​Analyse großer Datenmengen wird als Vorteil gewertet.

Herausforderungen: Beziehung, Ethik und Verantwortung

Trotz dieser Potenziale bleibt die Frage offen, ob KI die Qualität der zwischenmenschlichen therapeutischen Beziehung adäquat reproduzieren kann. Die therapeutische Allianz gilt als einer der stärksten Wirkfaktoren in der Psychotherapie (Wampold, 2015). Kritiker:innen argumentieren, dass Empathie, Intuition und emotionale Resonanz durch Maschinen weder authentisch erzeugt noch sinnvoll simuliert werden können. Aktuelle KI-​Systeme operieren auf Basis statistischer Mustererkennung, nicht echter Bedeutungszuschreibung oder emotionalen Mitgefühls.

Ethische und rechtliche Fragen verstärken diese Bedenken. Der Einsatz KI-​gestützter Systeme wirft komplexe Fragen des Datenschutzes, der Haftung und der Transparenz auf (Floridi et al., 2018). Viele KI-​Anwendungen stammen von privaten Technologieunternehmen, deren Geschäftsmodelle nicht primär auf therapeutische Qualität, sondern auf Skalierbarkeit und Marktdurchdringung abzielen. Auch besteht die Gefahr algorithmischer Verzerrungen (»bias«), wenn Trainingsdaten nicht divers genug sind oder kulturelle und sprachliche Eigenheiten nicht berücksichtigt werden. Dadurch können bestimmte Patient:innengruppen systematisch benachteiligt oder falsch eingeschätzt werden (Obermeyer et al., 2019), was insgesamt zu Vertrauensproblemen führen kann.

Zwischen Innovation und Regulierung

Die Psychotherapie steht damit an einem Scheideweg: Zwischen technologischem Fortschritt und professioneller Verantwortung ist eine kritische Auseinandersetzung über den sinnvollen Einsatz von KI notwendig. Zentral ist dabei die Entwicklung evidenzbasierter Standards und ethischer Leitlinien für KI-​gestützte Interventionen (siehe Teil 3 in diesem Band). Welche Rolle KI in der Psychotherapie künftig einnehmen kann und welche Szenarien daraus erwachsen, skizzieren wir am Ende des Buches. Auf Basis der derzeitigen Evidenz sollte KI jedoch nicht als Ersatz, sondern als Werkzeug verstanden werden, das bestehende therapeutische Angebote ergänzt. Entscheidend ist dabei, dass sich Therapeut:innen nicht auf die Rolle passiver Nutzer:innen beschränken, sondern sich aktiv an der Gestaltung dieser Entwicklungen beteiligen. Nur wenn psychotherapeutisches Fachwissen in die technische Entwicklung und Implementierung einfließt, kann sichergestellt werden, dass KI-​Anwendungen nicht an den Bedarfen von Patient:innen vorbeigehen oder einseitig durch ökonomische oder technologische Interessen geprägt werden. Die Zukunft der Psychotherapie mit KI darf nicht allein von technischen Entwickler:innen und Unternehmen definiert werden – sie muss von Psychotherapeut:innen mitverantwortet und mitgestaltet werden. Nur dann kann von einer echten therapeutischen »Revolution« im Sinne der Patient:innen gesprochen werden. Gerade wenn davon ausgegangen wird, dass KI-​Systeme und personalisierte KI-​Assistenten Teil der normalen Lebensrealität von Patient:innen sein werden (Schäfer, 2024), sollte nicht nur die Ethik dem technologischen Fortschritt einen Schritt voraus sein, sondern auch Psychotherapeut:innen diese Entwicklungen antizipieren.

Ersetzen Computer den Therapeuten? Ängste im Berufsstand vs. Hoffnungen bei Patient:innen?

Technologische Weiterentwicklungen bzw. die Einführung neuer Technologien haben bereits in der Vergangenheit Skepsis und Ängste unter Psychotherapeut:innen ausgelöst – insbesondere dann, wenn diese als potenzieller Ersatz für traditionelle zwischenmenschliche Therapieformen wahrgenommen wurden. Ein prägnantes Beispiel dafür ist die Einführung der Online-​Therapie: Zu Beginn war sie häufig mit Vorbehalten verbunden, da viele Fachkräfte befürchteten, dass durch den Wegfall des physischen Kontakts die therapeutische Beziehung, ein zentrales Element erfolgreicher Psychotherapie, beeinträchtigt werde (Eichenberg & Kienzle, 2013). Kritische Stimmen äußerten Zweifel daran, ob emotionale Nuancen und nonverbale Signale – wesentliche Bestandteile der zwischenmenschlichen Interaktion – über digitale Kanäle überhaupt ausreichend erfasst und verarbeitet werden können. Zudem wurde hinterfragt, ob digitale Angebote in der Lage seien, die gleiche Tiefe und Wirksamkeit wie klassische Face-​to-​Face-​Settings zu erreichen, auch wenn seit über 15 Jahren Studien existierten, die die Effektivität belegen (Barak et al., 2008). Ein ähnlicher Diskurs wurde auch in anderen helfenden Berufsgruppen geführt, so z. B. von psychosozialen Berater:innen, die mit der Einführung jeder neuen Beratungsmodalität (Telefon, Internet, SMS usw.) grundlegende Zweifel bezüglich Professionalität, Wirksamkeit und Qualität der Beziehungsgestaltung konstatierten (Eichenberg, 2011).

Es ist leicht nachvollziehbar, dass Ängste und Skepsis in unserem Berufsstand mit der Einführung generativer KI-​Chatbots, die menschliche Sprache verstehen und selbst Texte erzeugen können (siehe Kap. 4), aggravieren. Während noch vor einiger Zeit angenommen wurde, dass KI niemals in die Domäne der Psychotherapie vordringen könnte, da man Computern nur mechanisches Wissen zuschrieb (Tahan & Saleem, 2024), belegen aktuelle Studien die Wirksamkeit eines vollständig KI-​basierten Therapie-​Chatbots bei klinisch relevanten psychischen Symptomen (Depression, Generalisierte Angststörung, Essstörungen). Zudem wurde der Therapiebot gut angenommen und erhielt hohe Nutzerbewertungen. Die Autor:innen sehen in feinjustierten generativen KI-​Chatbots einen praktikablen Ansatz zur personalisierten psychologischen Gesundheitsversorgung im großen Maßstab (Heinz et al., 2025). Damit bekommen die Befürchtungen, dass eine echte menschliche Beziehung durch eine künstlich erzeugte Kommunikation und Intervention ersetzt wird, einen neuen Realitätsbezug im Zeitalter generativer KI – denn hier wird nicht nur das Medium, sondern auch der Interaktionspartner selbst digitalisiert.

Die Ängste und Befürchtungen von Psychotherapeut:innen, aber auch von Angehörigen weiterer Gesundheitsberufe im Zusammenhang mit KI sind bereits Gegenstand von Studien geworden. So fassen Tahan und Saleem (2024) in ihrem Review auch die Befürchtungen von Psychotherapeut:innen zusammen: Da Psychotherapie nicht länger ausschließlich professionellen menschlichen Psychotherapeut:innen vorbehalten sei, Patient:innen nun auf niedrigschwellige Weise psychologische Unterstützung über KI-​basierte Systeme erhalten könnten, die häufig ortsunabhängig, kostengünstig und rund um die Uhr verfügbar sei, könnte es zu einer Verschiebung der Rolle menschlicher Therapeut:innen kommen. Dabei seien psychodynamisch orientierte Therapeut:innen skeptischer bezüglich der Frage, ob therapeutische Prozesse wie Übertragung und Gegenübertragung und damit eine therapeutische Beziehung überhaupt mit und zu einer KI möglich seien, wobei wir aus der Vergangenheit bei der therapeutischen Adoption anderer Medien bereits wissen, dass Psychodynamiker:innen deutlich negativer eingestellt sind als Verhaltenstherapeut:innen, eben weil die therapeutischen Konzepte Letzterer leichter an und mit Medien durchführbar sind (Eichenberg & Kienzle, 2013).

Ein zentrales Motiv der Skepsis ist auch die Angst vor Jobverlust. Wie in anderen Bereichen (Bankwesen, Kundenservice, Recht, Gesundheit) wird befürchtet, dass KI menschliche Fachkräfte ersetzt. In einer türkischen Studie an Therapeut:innen, Ärztinnen und Ärzten sowie Pflegekräften äußerten sich 10% der Befragten besorgt darüber, dass KI sie ersetzen könnte (Castagno & Khalifa, 2020). In einer breit angelegten Studie mit Ärztinnen und Ärzten aus verschiedenen Bereichen des Gesundheitswesens wurden Fragen wie »Kann KI menschliche Arbeit im Gesundheitswesen ersetzen?«, »Werden Menschen durch KI träge?« oder »Was passiert, wenn Menschen abhängig von KI werden?« gestellt. Viele äußerten dabei erhebliche Sorgen um den Erhalt ihrer Arbeitsplätze. Allerdings wurde die Sorge nicht als übermäßig groß bewertet, da viele auch der Meinung waren, dass KI noch nicht weit genug entwickelt sei, um das Gesundheitswesen vollständig zu übernehmen (Filiz et al., 2022). Eine weitere Studie fokussierte den Bereich der Psychiatrie. Von fast 800 Psychiater:innen aus 22 verschiedenen Ländern wurden per Online-​Fragebogen die Einschätzungen zur Wahrscheinlichkeit, dass zukünftige Technologien Ärztinnen und Ärzte bei der Ausführung von zehn zentralen psychiatrischen Aufgaben vollständig ersetzen könnten, erfasst. In drei offenen Fragen wurden sie gefragt, ob sie glaubten, dass KI ihren Beruf in den nächsten 25 Jahren übernehmen könne, welche Risiken sie sahen und welche Empfehlungen sie abgeben wollten. Die Antworten wurden in vier Hauptkategorien unterteilt: Interaktion zwischen Patient:in und Psychiater:in, Qualität der medizinischen Versorgung, der Beruf selbst und Gesundheitssysteme (Blease et al., 2020). Die allgemeine Meinung war, dass bestimmte Aspekte der Behandlung durch KI ersetzt werden könnten. Manche prognostizierten, dass KI dazu führen werde, dass Psychiater:innen aus dem Behandlungsprozess vollständig verdrängt werden. Aussagen wie »Jobs will reduce as AI will replace humans« oder »I believe psychiatrists (and physicians in general) will continue to be more and more marginalized by AI, and that more treatment decision making will be guided by AI in the future« zeigten tiefe Besorgnis und die aktuellen Entwicklungen wurden als massive Bedrohung aufgefasst: »More interference with the process of doctoring. See no good coming from it« oder »The end of the psychiatrist profession«, wobei andere sich positiv äußerten (»Looking forward to artificial intelligence applications as quickly as possible«) oder auch Potenzial in einer Zusammenarbeit von Mensch und KI bei Diagnosen und Behandlungsentscheidungen sahen: KI könne vor allem administrative Aufgaben wie Dokumentation übernehmen und dabei klinische Prozesse unterstützen (Blease et al., 2020).

Insgesamt muss bei den Ergebnissen berücksichtigt werden, dass zum Zeitpunkt aller drei Studien die erste öffentlich zugängliche generative KI, sprich Chat-​GPT von OpenAI, noch nicht veröffentlicht war.

Neben der Perspektive der Behandelnden stellt sich die zentrale Frage, ob Patient:innen überhaupt Vertrauen und einen emotionalen Bezug zu einem KI-​System aufbauen können (vgl. Kap. 13). Dass Vertrauen in Technologien zentral ist, um diese zu nutzen (Bach & Mannikko, 2025), ist unbestritten; hingegen wird die Rolle der emotionalen Bindung an die KI kontroverser diskutiert und ist Gegenstand aktueller Forschung. Während man – angelehnt an die therapeutische Allianz als zentraler Wirkfaktor in der Psychotherapie (Bordin, 1979) – davon ausgehen kann, dass eine emotionale Bindung auch bei der digitalen Kommunikation über psychische Probleme notwendig sein muss, so zeigen erste Befunde ein differenzierteres Bild: Die Beziehung spielt bei generativer KI eine untergeordnete Rolle, kann jedoch nützlich sein. Das Erleben von Empathie kann die Nutzungsbereitschaft und subjektive Wirksamkeit erhöhen. Studien zeigen, dass Nutzende durch Selbstoffenbarung gegenüber Chatbots ähnliche psychologische Vorteile erfahren können wie im Gespräch mit Menschen – und das, ohne dass eine klassische therapeutische Bindung erforderlich ist (Prinzip der Medienäquivalenz; Ho et al., 2018). Eine Studie, die die KI-​gestützte App Woebot untersuchte, kam zu einem ähnlichen Befund: Woebot erwies sich bei depressiven Symptomen als wirksam, ohne dass dafür eine emotionale Bindung Voraussetzung war, da der Bot bewusst als »nicht-​menschlich« (i.S. einer Anthropomorphisierung) konzipiert worden war (Fitzpatrick et al., 2017). Insgesamt wissen wir, dass Nutzer:innen eine therapeutische Bindung an Chatbots aufbauen können (Darcy et al., 2021). So zeigte sich in einer Studie von Beatty und Kolleg:innen (2022) zum KI-​gestützten Chatbot Wysa, dass die Werte, die die Nutzer zur therapeutischen Allianz angaben, mit denen aus anderen Studien vergleichbar waren, in denen Menschen in traditionellen Psychotherapien oder Online-​Programmen zur psychischen Gesundheit behandelt wurden. Ob und welche Varianzaufklärung diese sog. digitale therapeutische Allianz (für ein Rahmenkonzept siehe Malouin-​Lachance et al., 2025) mit der KI an der Symptomreduktion haben, d. h., ob und in welchen Ausmaß sie als Mediator fungiert, muss in dezidierten Studien geklärt werden (Darcy et al., 2021).

Welche Einstellungen und Nutzungsbereitschaft zeigen Patient:innen? In einer Untersuchung von Boeldt und Kolleg:innen (2015) zeigte sich, dass Patient:innen bei Diagnosen teilweise mehr Vertrauen in KI als in Ärztinnen und Ärzte hatten. Bereits vor zehn Jahren gaben in einer Umfrage 70% der Befragten an, starkes Interesse daran zu haben, mithilfe von Technologie ihre psychische Gesundheit zu überwachen (Torous et al., 2014). Konkret auf KI-​basierte Chatbots bezogen, gibt eine aktuelle Interviewstudie mit 29 Erwachsenen Aufschluss über deren Einstellungen (H. S. Lee et al., 2024). Die meisten standen diesen Agenten grundsätzlich positiv gegenüber und schätzten deren Nutzen sowie das Potenzial, den Zugang zur Versorgung zu verbessern, wobei manche auch eine vorsichtige Optimismushaltung einnahmen. Etwa die Hälfte äußerte jedoch auch negative Ansichten, insbesondere in Bezug auf das fehlende Einfühlungsvermögen der KI, technische Begrenzungen bei komplexen psychischen Problemen und den Datenschutz. Die Mehrheit wünschte sich eine gewisse menschliche Beteiligung bei KI-​gestützter Therapie und zeigte sich besorgt darüber, dass KI-​Chatbots als Ersatz für menschliche Therapie gesehen werden könnten. Zum gleichen Ergebnis kommt Lukas (2025), die 444 Teilnehmende aus der deutsche Allgemeinbevölkerung befragte – mit dem Ergebnis, dass 27% bereits ihre Sorgen Konversationsagenten anvertrauen. Dabei befürworteten sie eher den Einsatz von Konversationsagenten als durch Fachkräfte gesteuerte Begleiter, nicht jedoch als eigenständige »Expert:innen«, sodass insgesamt der Wunsch nach aktiver therapeutischer Führung der KI deutlich wird.

Die Frage, ob Computer uns Therapeut:innen ersetzen können, wird sowohl von Ängsten als auch von Hoffnungen begleitet, die jedoch bei beiden Gruppen einen unterschiedlichen Inhalt haben. Psychotherapeut:innen befürchten, dass KI die traditionelle therapeutische Beziehung gefährden könnte, insbesondere da sie emotionale Nuancen und komplexe zwischenmenschliche Prozesse wie Übertragung und Gegenübertragung nicht adäquat verarbeiten kann. Viele Fachleute sorgen sich um den Verlust oder zumindest eine Umstrukturierung ihrer Arbeitsaufgaben, da KI-​Therapien eine kostengünstige und rund um die Uhr verfügbare Alternative darstellen könnten. Entsprechend können Psychotherapeut:innen ebenso Hoffnungen haben, von generativer KI z. B. in der Behandlungsplanung unterstützt, von administrativen Aufgaben entlastet zu werden.

Auch Patient:innen verbinden Hoffnungen mit KI, z. B. dahingehend, dass der Zugang zu psychischer Gesundheitsversorgung verbessert und eine niederschwellige Unterstützung angeboten wird. Einige sehen in KI eine wertvolle Ergänzung, besonders wenn diese unter der Aufsicht von Fachkräften erfolgt. Die meisten Patient:innen möchten keine vollständige Ersetzung durch Maschinen, sondern bevorzugen eine Zusammenarbeit von Mensch und KI. Somit würde die KI als »dritte Instanz« in der Psychotherapie fungieren (Schäfer, 2024). Offen bleibt die Frage, welches Nutzerverhalten Menschen zeigen, wenn ein psychotherapeutisches Angebot frei kontaktiert werden kann? Wie viel Bedarf besteht, wenn psychotherapeutische Gespräche mit einem Bot on demand möglich sind? Hier existiert einerseits die Hoffnung auf eine unbegrenzte Gesundheitsversorgung ohne Wartezeiten, gegenseitige Verpflichtungen und Diagnosen und damit Stigmatisierung, andererseits die Gefahr einer Übertherapierung und Abhängigkeit von einem Produkt, das finanzielle Interessen verfolgt (vgl. Schäfer, 2024).

Praxistipp

Dass neue synthetische Beziehungen durch die Nutzung von Chatbots entstehen und diese auch existierende menschliche Beziehungen prägen, ist leicht nachvollziehbar (Schäfer, 2024). Damit wird es auch ein Thema für die und in der Psychotherapie. Einerseits ist die eigene Haltung gegenüber KI-​gestützten Chabots zu reflektieren, andererseits sind die Nutzung(sgewohnheiten), Erfahrungen, damit verbundenen Hoffnungen und Ängste unserer Patient:innen zu explorieren, im Sinne einer nun um KI-​Angebote erweiterten Medienanamnese (Eichenberg, 2021b).

Teil 1

Grundlagen von KI in der Psychotherapie

Kapitel 1

Was ist Künstliche Intelligenz?

1.1 Definition und Abgrenzung

Künstliche Intelligenz ist heute mehr als nur ein Buzzword, als ein Modewort – sie ist zu einer wissenschaftlich fundierten Realität geworden (Fortuna & Gorbaniuk, 2022; Gbadegeshin et al., 2021), die auch die Psychotherapie grundlegend verändern kann (Z. Zhang & Wang, 2024). Doch was versteht man unter KI, und wie lässt sie sich von anderen digitalen Technologien abgrenzen, die bereits seit Jahren in der psychotherapeutischen Praxis Einzug gehalten haben?

Eine der am häufigsten zitierten Definitionen stammt von John McCarthy, der den Begriff 1956 prägte: KI sei »die Wissenschaft und das Engineering zur Herstellung intelligenter Maschinen, insbesondere intelligenter Computerprogramme« (McCarthy, 1956, 2007). Für die psychotherapeutische Praxis ist jedoch eine praxisnähere Definition hilfreicher: Künstliche Intelligenz bezeichnet Computersysteme, die Aufgaben ausführen können, die normalerweise menschliche Intelligenz erfordern, wie das Verstehen natürlicher Sprache, das Erkennen von Mustern, das Treffen von Entscheidungen oder das Lösen komplexer Probleme (Russell & Norvig, 2023).

Entscheidend für das Verständnis von KI in der Psychotherapie ist die Unterscheidung zwischen schwacher KI (narrow AI) und starker KI (artificial general intelligence; Groppe & Jain, 2024). Alle heute in der Psychotherapie eingesetzten KI-​Systeme fallen in die Kategorie der schwachen KI: Sie sind auf spezifische Aufgaben spezialisiert, etwa die Analyse von Gesprächsinhalten, die Erkennung emotionaler Zustände oder die Bereitstellung personalisierter Interventionen. Im Gegensatz dazu würde eine starke KI über allgemeine Intelligenz verfügen, die der menschlichen ebenbürtig oder überlegen wäre, ein Szenario, das nach Expert:innenschätzungen noch Jahre, wenn nicht Jahrzehnte entfernt ist (Bostrom, 2014). Eine umfassende Aggregation von 8590 Prognosen, bestehend aus Expert:innenbefragungen, Marktvorhersagen und öffentlichen Aussagen prominenter KI-​Entwickler, deutet jedoch auf eine zunehmend mögliche zeitliche Vorverlagerung hin, mit gehäuften Erwartungen im Zeitraum 2026 bis 2035 (Dilmegani & Ermut, 2025).

Abgrenzung zu verwandten Technologien

Für Psychotherapeut:innen ist es wichtig, KI von anderen digitalen Technologien zu unterscheiden, die bereits etabliert sind:

Digitale Gesundheitsanwendungen (DiGA) wie solche von HelloBetter oder Selfapy verwenden oft regelbasierte Systeme, die vorprogrammierte Entscheidungsbäume abarbeiten. Diese sind wertvoll, aber nicht intelligent im eigentlichen Sinne, sie können nicht lernen oder sich an neue Situationen anpassen.

Teletherapie-​Plattformen ermöglichen digitale Kommunikation, nutzen aber in der Regel keine intelligenten Algorithmen zur Analyse oder Unterstützung des therapeutischen Prozesses.

KI-​gestützte Systeme hingegen können aus Daten lernen, Muster erkennen und ihre Leistung kontinuierlich verbessern (Thakkar et al., 2024). Sie können beispielsweise aus Millionen von Gesprächsverläufen lernen, welche Interventionen bei bestimmten Symptomkonstellationen am erfolgreichsten sind.

Die aktuelle Forschung zeigt, dass KI-​basierte Konversationsagenten bereits klinisch relevante Verbesserungen bei psychischen Erkrankungen erzielen können. Eine systematische Übersichtsarbeit und Meta-​Analyse von Li und Kolleg:innen (2023) untersuchte 35 Studien mit insgesamt über 17 000 Teilnehmern und zeigte, dass KI-​basierte Konversationsagenten signifikante Effekte bei der Reduktion von depressiven Symptomen (g = 0,64) und psychischem Stress (g = 0,70) erzielen können. Die Wirksamkeit war besonders ausgeprägt bei multimodalen, generativen Systemen, die über mobile oder Messaging-​Plattformen eingesetzt wurden.

1.2 Technische Grundlagen

Maschinelles Lernen

Um die Möglichkeiten und Grenzen von KI in der Psychotherapie zu verstehen, ist ein grundlegendes Verständnis der zugrundeliegenden Technologien erforderlich. Maschinelles Lernen (ML) bildet das Fundament der meisten modernen KI-​Anwendungen und unterscheidet sich fundamental von traditioneller Programmierung (Xu et al., 2021).

Bei traditioneller Programmierung werden explizite Regeln definiert: »Wenn Patient:in A sagt, dann antworte B«. Bei maschinellem Lernen hingegen werden dem System große Datenmengen zur Verfügung gestellt, aus denen es selbstständig Muster und Zusammenhänge erlernt. Ein ML-​System für die Psychotherapie könnte beispielsweise aus Tausenden dokumentierten Therapiegesprächen lernen, welche Formulierungen bei bestimmten emotionalen Zuständen am hilfreichsten sind (Goldberg et al., 2020; Rebelo et al., 2023).

Maschinelles Lernen lässt sich in drei fundamentale Ansätze unterteilen, die sich in der Art unterscheiden, wie das System aus Daten lernt.

Überwachtes Lernen (Supervised Learning) arbeitet mit bereits klassifizierten Trainingsdaten, bei denen sowohl die Eingabedaten als auch die gewünschten Ausgaben bekannt sind. Das System lernt, die Beziehung zwischen Input und Output zu erkennen, um später bei neuen, unbekannten Daten korrekte Vorhersagen treffen zu können (Sarker, 2021b; Taye, 2023). Dies entspricht dem Lernen mit einem erfahrenen Mentor, der bei jedem Beispiel die richtige Antwort vorgibt. Typische Anwendungen finden sich in der E-​Mail-​Spam-​Erkennung (AlShaikh et al., 2025), der medizinischen Bilddiagnostik (Aljuaid & Anwar, 2022) oder der Spracherkennung (Tadevosyan et al., 2025). In der Psychotherapie könnte dies z. B. bedeuten, dass ein System aus Tausenden von Gesprächsausschnitten lernt, die Therapeut:innen bereits als »hilfreich« oder »weniger hilfreich« klassifiziert haben.

Unüberwachtes Lernen (Unsupervised Learning) analysiert Daten ohne vorgegebene Zielwerte oder Klassifikationen und identifiziert eigenständig Strukturen, Muster oder Gruppierungen in den Daten. Diese Methode eignet sich besonders zur Entdeckung verborgener Zusammenhänge, die möglicherweise nicht offensichtlich sind (Sarker, 2021b). Man kann dies mit einem Forscher vergleichen, der große Datenmengen durchkämmt und dabei unerwartete Muster entdeckt. Häufige Einsatzgebiete sind Marktforschung zur Kundensegmentierung (Nagaraj et al., 2023), Genomanalyse (R. Liu et al., 2020) oder die Analyse sozialer Netzwerke (Abbas, 2021). Therapeutisch angewendet kann dies bedeuten, dass ein System automatisch verschiedene Gesprächstypen oder emotionale Zustandsmuster aus reinen Textdaten identifiziert.

Verstärkendes Lernen (Reinforcement Learning) basiert auf einem Trial-​and-​error-​Prinzip, bei dem das System durch Interaktion mit einer Umgebung lernt und dabei positive oder negative Rückmeldungen erhält. Das System optimiert sein Verhalten schrittweise, um die Wahrscheinlichkeit positiver Ergebnisse zu maximieren. Dieses Vorgehen ähnelt dem Erlernen einer komplexen Fähigkeit durch kontinuierliches Üben und Anpassen, das auf den erzielten Ergebnissen basiert (Alkam et al., 2025; Jayaraman et al., 2024). Bekannte Anwendungen umfassen autonome Fahrzeuge (Inamdar et al., 2024), Spielstrategien (L. Hu et al., 2025) oder Robotiksteuerung (Prasuna & Potturu, 2024). In der Psychotherapie könnte ein solches System beispielsweise durch kontinuierliches Patientenfeedback lernen, welche Interventionsstrategien in bestimmten Situationen die größte therapeutische Wirksamkeit erzielen (Frommeyer et al., 2025).

Aktuelle Marktanalysen zeigen, dass maschinelles Lernen das am schnellsten wachsende Technologiefeld im Bereich KI für mentale Gesundheit darstellt, mit einer durchschnittlichen jährlichen Wachstumsrate (Compound Annual Growth Rate, CAGR) von über 24 % bis 2030 (Grand View Research, 2024).

Deep Learning

Deep Learning, eine Unterkategorie des maschinellen Lernens, hat in den letzten Jahren zu den größten Durchbrüchen in der KI geführt (Sarker, 2021a). Der Begriff »deep« bezieht sich auf die Verwendung neuronaler Netze mit vielen Schichten (Layers), die komplexe Muster in Daten erkennen können.

Ein neuronales Netz besteht aus miteinander verbundenen Knoten (Neuronen), die grob den Neuronen im menschlichen Gehirn nachempfunden sind. Jede Verbindung zwischen zwei Neuronen hat ein Gewicht, eine Zahl, die bestimmt, wie stark der Einfluss des einen Neurons auf das andere ist (La Malfa et al., 2024). Man kann sich diese Gewichte wie die Lautstärkeregler an einem Mischpult vorstellen: Ein hohes Gewicht entspricht einem aufgedrehten Regler (starker Einfluss), ein niedriges Gewicht einem heruntergedrehten Regler (schwacher Einfluss).

Während des Lernprozesses passt das System diese »Lautstärkeregler« kontinuierlich an: Führt eine bestimmte Verbindung zu korrekten Ergebnissen, wird ihr Gewicht erhöht; führt sie zu Fehlern, wird es verringert. Durch Millionen solcher Anpassungen lernt das Netzwerk, welche Eingangssignale wichtig sind und wie sie miteinander kombiniert werden müssen, um die richtige Antwort zu produzieren. Diese Struktur ermöglicht es dem System, hochkomplexe, mathematisch ausgedrückt: nichtlineare Beziehungen in Daten zu erkennen.

Das Prinzip lässt sich mit der diagnostischen Arbeit eines erfahrenen Arztes vergleichen: Dieser analysiert zunächst einzelne Symptome, erkennt dann Symptomkomplexe, ordnet diese in Krankheitsbilder ein und gelangt schließlich zu einer Gesamtdiagnose, jede Analyseschicht baut systematisch auf der vorherigen auf. Etablierte Anwendungsgebiete umfassen Computer Vision für die Bilderkennung (Chai et al., 2021), Sprachverarbeitung (Ahlawat et al., 2025), medizinische Diagnostik (G. K. Thakur et al., 2024) und autonome Fahrzeuge (Aljehane, 2024). Für die Psychotherapie bedeutet dies einen wichtigen Fortschritt: Während frühere Systeme nur einfache Wenn-​dann-​Regeln befolgen konnten, können Deep-​Learning-​Systeme die Nuancen menschlicher Kommunikation verstehen, etwa den Unterschied zwischen oberflächlicher Zustimmung und echter Einsicht oder die subtilen Anzeichen einer beginnenden depressiven Episode in der Wortwahl von Patient:innen.

Grenzen und Herausforderungen

Trotz beeindruckender Fortschritte haben Deep-​Learning-​Systeme nach wie vor wichtige Limitationen, die Therapeut:innen verstehen sollten. Ein zentrales Problem ist die mangelnde Interpretierbarkeit dieser Modelle, das sogenannte Black-​Box-​Problem. Deep-​Learning-​Systeme treffen zwar oft korrekte Entscheidungen, aber die zugrundeliegenden Entscheidungsprozesse bleiben aufgrund der Komplexität dieser Systeme für Menschen häufig undurchschaubar (Dobson, 2023). In der Psychotherapie, wo Transparenz und die Nachvollziehbarkeit therapeutischer Entscheidungen für das Vertrauen zwischen Therapeut:in und Patient:in entscheidend sind, stellt dies eine erhebliche Herausforderung dar. Wie kann ein Therapeut eine KI-​Empfehlung verantworten, wenn er nicht versteht, wie diese zustande gekommen ist?

Zusätzlich sind diese Systeme ausgesprochen datenhungrig und benötigen riesige Mengen an Trainingsdaten, um effektiv zu funktionieren (Yazici et al., 2023). In der Psychotherapie kollidiert dies mit strengen Datenschutzbestimmungen und der besonderen Sensibilität therapeutischer Gespräche. Die Verfügbarkeit qualitativ hochwertiger, anonymisierter Therapiedaten ist daher oft stark eingeschränkt. Schließlich besteht das Risiko des sogenannten Overfittings: Modelle können sich so stark an ihre Trainingsdaten anpassen, dass sie bei neuen, unbekannten Situationen versagen (Taherdoost, 2023). Dies ist besonders problematisch in der individualisierten Therapie, wo jeder Patient einzigartige Herausforderungen und Bedürfnisse mitbringt, die möglicherweise nicht in den ursprünglichen Trainingsdaten repräsentiert waren.

Umgekehrt kann es bei unzureichend trainierten oder zu einfachen Modellen zum Underfitting kommen, dabei erkennt das System die relevanten Muster in den Daten gar nicht erst (Zhang et al., 2019). In beiden Fällen leiden die Genauigkeit und praktische Nützlichkeit des KI-​Systems.

1.3 Natural Language Processing

Natural Language Processing (NLP) ist vielleicht die für Psychotherapeut:innen relevanteste KI-​Technologie, da Sprache das primäre Medium therapeutischer Arbeit ist (Malgaroli et al., 2023). NLP umfasst alle Techniken, die es Computern ermöglichen, menschliche Sprache zu verstehen, zu interpretieren und zu generieren (Thakur et al., 2023).

Die Entwicklung des NLP lässt sich in mehrere evolutionäre Phasen unterteilen. Nach frühen regelbasierten Systemen der 1960er-​ bis 1980er-​Jahre und statistischen Methoden der 1990er-​ und 2000er-​Jahre kam die eigentliche Revolution mit Deep Learning basierter NLP seit 2010, die das Feld durch die Fähigkeit transformierte, semantische Bedeutungen und Kontext zu verstehen (Foote, 2022; Jurafsky & Martin, 2025). Diese Technologie bildete die Grundlage für die aktuell dominierenden Large Language Models wie Chat GPT, Claude, Gemini und ihre Nachfolger, die menschenähnliche Konversationen führen können und ein erstaunliches Verständnis für Nuancen, Kontext und sogar emotionale Subtexte zeigen.

Grundlage dieser Verarbeitung sind sogenannte Tokens, kleinste Spracheinheiten wie Wörter oder Wortteile, in die ein Text aufgespalten wird, damit das Modell ihn analysieren kann. Transformer-​Modelle verarbeiten solche Tokens nicht nacheinander, sondern parallel, was nicht nur eine deutlich schnellere Verarbeitung ermöglicht, sondern auch ein tieferes Verständnis komplexer sprachlicher Zusammenhänge (Greco & Tagarelli, 2024; Zheng & Zhang, 2025).

Der Attention-​Mechanismus (Vaswani et al., 2017) bewertet dabei die Relevanz jedes Tokens für alle anderen Tokens im Kontext, eine Fähigkeit, die für das Verständnis therapeutischer Gespräche von entscheidender Bedeutung ist (L. Liu & Xu, 2023). Besonders relevant für die Psychotherapie ist die Fähigkeit von Transformer-​Modellen, langreichweitige Abhängigkeiten zu erkennen: Ein Patient könnte beispielsweise zu Beginn eines Gesprächs ein traumatisches Ereignis erwähnen und erst viel später subtile Hinweise auf damit verbundene Emotionen geben. Transformer-​Systeme können solche Verbindungen über große Textdistanzen hinweg erkennen und in ihre Antworten einbeziehen.

Ein bemerkenswertes Beispiel für die praktische Anwendung ist die Therabot-​Studie von Heinz und Kolleg:innen (2025), die erste randomisierte kontrollierte Studie zu generativer KI in der Psychotherapie. Hier erhielten 210 Erwachsene mit klinisch relevanten Symptomen von Depression, Angststörung oder Essstörungsrisiko entweder eine vierwöchige KI-​gestützte Intervention oder wurden auf eine Warteliste gesetzt. Die Therabot-​Gruppe zeigte signifikant stärkere Symptomverbesserungen, mit Effektstärken zwischen d = 0,79 (p = 0,003) und d = 0,90 (p < 0,001) für Depression und Angst, Werte, die im Bereich traditioneller Psychotherapie liegen.

NLP-​Anwendungen in der Psychotherapie