KI in der Psychotherapie

                                           Therabots

                                 Wie gut hilft der "Therabot"?

Die künstliche Intelligenz und Programme wie ChatGPT können mittlerweile auch intelligente Gespräche mit dem Benutzer führen. Wie steht es darum, wenn ein Mensch Hilfe sucht. Kann er den intelligenten Bot (Abkürzung für Roboter) auch als Therabot benutzen?

Gab es das nicht schon einmal?

Richtig: Eliza. Aber zunächst die Frage: Was ist ein Therabot?




                                     Therabots 

 

digitale Begleiter in der Psychotherapie oder Ersatz für Psychotherapeuten?

Therapie-Roboter, kurz Therabots, klingen zunächst wie Science-Fiction. Tatsächlich sind sie längst Realität – und sie werden in Fachkreisen zunehmend diskutiert. Hinter dem Begriff verbergen sich KI-gestützte Chatbots, die Menschen in psychischen Belastungssituationen begleiten, Übungen anleiten oder schlicht als Gesprächspartner dienen.

Was es schon gibt

Woebot: Ein in den USA entwickelter Chatbot, der Methoden der kognitiven Verhaltenstherapie vermittelt.

Wysa: Ein App-basiertes Programm, das KI-Gespräche mit menschlichen Coaches kombiniert.

Tess (X2AI): Eingesetzt in Kliniken und Unternehmen, um Stress und Ängste aufzufangen.

Therabot (Dartmouth College, USA): Ein Forschungsprojekt zur Begleitung von Patientinnen und Patienten mit Traumafolgestörungen.

Replika: Ursprünglich ein „digitaler Freund“, inzwischen auch in mental-health-Kontexten genutzt.

Paro: Ein kuscheliger Robbenroboter, bekannt aus der Altenpflege, der Nähe und Beruhigung vermitteln soll.



Chancen

Therabots sind rund um die Uhr verfügbar, niederschwellig, kostengünstig und können Stigmatisierung abbauen. Sie helfen beim Üben zwischen Therapiesitzungen, überbrücken Wartezeiten und motivieren Patientinnen und Patienten zur Selbsthilfe.

Risiken

Doch es gibt auch Schattenseiten: Datenschutz und Datensicherheit sind oft unklar geregelt. Kein Bot ersetzt die menschliche Beziehung in der Psychotherapie. Außerdem kann falsches Feedback im schlimmsten Fall schädlich sein.

Und wie geht es weiter?

Der Markt wächst rasant. Klinische Studien untersuchen Wirksamkeit und Grenzen dieser Tools. Denkbar ist, dass Therabots künftig regulär in die Versorgung integriert werden – nicht als Ersatz, sondern als digitale „Co-Therapeuten“.

Fazit: 
Therabots sind mehr als ein Trend. Sie zeigen, wie Digitalisierung die Psychotherapie verändern kann – mit Chancen und Risiken. Für uns als Profession bedeutet das: informiert bleiben, kritisch prüfen, und dort einsetzen, wo es sinnvoll ist.




ELIZA – die erste "Therabotin" der Welt

Wenn heute von „Therabots“ die Rede ist, lohnt ein Blick zurück: Schon Mitte der 1960er Jahre entwickelte der Informatiker Joseph Weizenbaum am MIT ein Computerprogramm, das als eine der ersten Anwendungen künstlicher Intelligenz in die Geschichte einging – ELIZA.

Wie ELIZA funktionierte

ELIZA war ein Textprogramm, das einfache sprachliche Muster erkannte und darauf mit vorgefertigten Satzbausteinen reagierte. Am bekanntesten wurde das „DOCTOR“-Skript: Es simulierte eine psychotherapeutische Gesprächssituation im Stil der klientenzentrierten Therapie nach Carl Rogers.
Beispiel:
Nutzer: „Ich bin oft traurig.“
ELIZA: „Warum sind Sie oft traurig?“

So entstand die Illusion eines einfühlsamen Gesprächs, obwohl das Programm keinerlei „Verstehen“ besaß.

Weizenbaums Überraschung

Weizenbaum selbst war verblüfft, wie schnell Menschen der Maschine menschliche Eigenschaften zuschrieben. Selbst seine Sekretärin bat ihn darum, das Büro zu verlassen, damit sie „unbeobachtet mit ELIZA sprechen“ könne. Diese Erfahrung ließ ihn später zu einem der schärfsten Kritiker einer unreflektierten KI-Nutzung werden.

Bedeutung für heute

ELIZA war die erste „Therabotin“ – und zugleich eine frühe Mahnung: Digitale Systeme können Nähe vortäuschen, ohne zu verstehen.

Die Diskussion um Schein-Empathie, ethische Grenzen und Verantwortung begleitet die Entwicklung bis heute.

Moderne Therabots wie Woebot, Wysa oder Tess sind technisch weit überlegen – die Grundfrage bleibt aber dieselbe: Wie viel therapeutische Beziehung lässt sich digital ersetzen?

Fazit: 
ELIZA war simpel, aber wegweisend. Sie markiert den Anfang einer bis heute aktuellen Debatte: Können Maschinen heilen – oder nur simulieren?

 

Eine moderne Web-Version, die dem klassischen ELIZA-Chatbot nachempfunden ist. man kann unten die Sprache auf Deutsch stellen (Choose language) und direkt im Browser interagieren. Die Therabotin spricht auch mit Ihnen!

Wissenschaftliche Belege: Studie zum Thema

Dartmouth-Forscher führten die erste klinische Studie mit einem generativen KI-gestützten Therapie-Chatbot durch und fanden heraus, dass die Software zu signifikanten Verbesserungen der Symptome der Teilnehmer führte, so die am 27. März in NEJM AI veröffentlichten Ergebnisse.
Die Menschen in der Studie berichteten auch, dass sie dem System, bekannt als Therabot, vertrauen und mit ihm kommunizieren können, in einem Ausmaß, das mit der Arbeit mit einem Psychologen vergleichbar ist.
Die Studie bestand aus 106 Personen aus den Vereinigten Staaten, bei denen eine schwere depressive Störung, eine generalisierte Angststörung oder eine Essstörung diagnostiziert wurde. Die Teilnehmer interagierten mit Therabot über eine Smartphone-App, indem sie Antworten auf Aufforderungen eintippten, wie sie sich fühlten, oder Gespräche initiierten, wenn sie sprechen mussten.
Bei Menschen, bei denen eine Depression diagnostiziert wurde, wurde eine durchschnittliche Verringerung der Symptome um 51 % auf, was zu klinisch signifikanten Verbesserungen der Stimmung und des allgemeinen Wohlbefindens führte, berichten die Forscher. Teilnehmer mit generalisierter Angst berichteten von einer durchschnittlichen Verringerung der Symptome um 31 %, wobei viele von mittelschwerer zu leichter Angst oder von leichter Angst zu unter die klinische Schwelle für die Diagnose wechselten.
Unter den Risiko für Essstörungen - die traditionell schwieriger zu behandeln sind - zeigten Therobot-Anwender eine durchschnittliche Verringerung der Bedenken hinsichtlich des Körperbildes und des Gewichts um 19 %, was eine Kontrollgruppe, die ebenfalls Teil der Studie war, deutlich übertraf.

Die Forscher kommen zu dem Schluss, dass die KI-gestützte Therapie zwar immer noch dringend der Aufsicht durch Kliniker benötigt, aber das Potenzial hat, den vielen Menschen, die keinen regelmäßigen oder sofortigen Zugang zu einem Psychiater haben, in Echtzeit Unterstützung zu bieten.
"Die Verbesserungen der Symptome, die wir beobachteten, waren vergleichbar mit dem, was für die traditionelle ambulante Therapie berichtet wird, was darauf hindeutet, dass dieser KI-unterstützte Ansatz klinisch sinnvolle Vorteile bieten kann", sagt Nicholas Jacobson, leitender Autor der Studie und außerordentlicher Professor für biomedizinische Datenwissenschaft und Psychiatrie an der Geisel School of Medicine.
"Es gibt keinen Ersatz für die persönliche Pflege, aber es gibt bei weitem nicht genug Anbieter, um herumzulaufen", sagt Jacobson. Für jeden verfügbaren Anbieter in den Vereinigten Staaten gibt es allein durchschnittlich 1.600 Patienten mit Depressionen oder Angstzuständen, sagt er.
"Wir würden gerne sehen, dass die generative KI dazu beiträgt, der großen Anzahl von Menschen außerhalb des persönlichen Pflegesystems psychische Unterstützung zu bieten. Ich sehe das Potenzial für eine persönliche und softwarebasierte Therapie, zusammenarbeiten zu können", sagt Jacobson, der Direktor des Behandlungsentwicklungs- und -bewertungskerns am Dartmouth Center for Technology and Behavioral Health.
Michael Heinz, der erste Autor der Studie und Assistenzprofessor für Psychiatrie an der CTBH und Geisel, sagt, dass die Studienergebnisse auch die kritische Arbeit unterstreichen, die noch bevor generative KI zur sicheren und effektiven Behandlung von Menschen eingesetzt werden kann.
"Obwohl diese Ergebnisse sehr vielversprechend sind, ist kein generativer KI-Agent bereit, vollständig autonom in der psychischen Gesundheit zu arbeiten, wo es eine sehr breite Palette von Hochrisikoszenarien gibt", sagt Heinz, der auch behandelnder Psychiater am Dartmouth Hitchcock Medical Center ist. "Wir müssen die Risiken, die mit generativer KI in Kontexten der psychischen Gesundheit eingesetzt werden, noch besser verstehen und quantifizieren."
Therabot befindet sich seit 2019 in der Entwicklung in Jacobsons KI- und Mental Health Lab in Dartmouth und umfasste kontinuierliche Konsultationen mit Psychologen und Psychiatern, die mit Dartmouth und Dartmouth Health verbunden sind.

Therabot-Benutzer, bei denen zuvor eine psychische Störung diagnostiziert wurde, zeigten nach acht Wochen eine signifikante Verbesserung der Symptome. (Grafik von LaDarius Dennison)
Wenn Menschen ein Gespräch mit der App beginnen, antwortet Therabot mit einem natürlichen, offenen Textdialog, der auf einem originellen Trainingsset basiert, das die Forscher aus aktuellen, evidenzbasierten Best Practices für Psychotherapie und kognitive Verhaltenstherapie entwickelt haben, sagt Heinz.
Wenn eine Person mit Angst zum Beispiel Therabot sagt, dass sie sich in letzter Zeit sehr nervös und überfordert gefühlt hat, könnte es antworten: "Lass uns einen Schritt zurücktreten und fragen, warum du dich so fühlst." Wenn Therabot während eines Gesprächs mit einem Benutzer risikoreiche Inhalte wie Selbstmordgedanken erkennt, wird es aufgefordert, 911 anzurufen oder eine Suizidpräventions- oder Krisenhotline mit einem Bildschirmknopf zu kontaktieren.
Die klinische Studie bot den zufällig ausgewählten Teilnehmern, um Therabot zu verwenden, vier Wochen lang unbegrenzten Zugang. Die Forscher verfolgten auch die Kontrollgruppe von 104 Personen mit den gleichen diagnostizierten Erkrankungen, die keinen Zugang zu Therabot hatten.
Fast 75 % der Therabot-Gruppe wurden zu diesem Zeitpunkt nicht pharmazeutisch oder ander therapeutisch behandelt. Die App fragte nach dem Wohlbefinden der Menschen und personalisierte ihre Fragen und Antworten basierend auf dem, was sie in ihren Gesprächen mit den Teilnehmern gelernt hat. Die Forscher bewerteten Gespräche, um sicherzustellen, dass die Software innerhalb der besten therapeutischen Praktiken reagierte.
Nach vier Wochen messten die Forscher den Fortschritt einer Person anhand standardisierter Fragebögen, die Kliniker verwenden, um jede Krankheit zu erkennen und zu überwachen. Das Team führte nach weiteren vier Wochen eine zweite Bewertung durch, als die Teilnehmer Gespräche mit Therabot beginnen konnten, aber keine Aufforderungen mehr erhielten.
Nach acht Wochen erlebten alle Teilnehmer, die Therabot verwendeten, eine deutliche Verringerung der Symptome, die das über das hinaus überstieg, was Kliniker als statistisch signifikant betrachten, sagt Jacobson.
Offerte
Wir haben nicht erwartet, dass die Leute die Software fast wie einen Freund behandeln würden. Es sagt mir, dass sie tatsächlich Beziehungen zu Therabot aufgebaut haben. Nicolas Jacobson, ausserordentlicher Professor für biomedizinische Datenwissenschaft und Psychiatrie


Diese Unterschiede stellen robuste, reale Verbesserungen dar, die Patienten wahrscheinlich in ihrem täglichen Leben bemerken würden, sagt Jacobson. Die Benutzer beschäftigten sich während der Studie durchschnittlich sechs Stunden mit Therabot, was etwa acht Therapiesitzungen entspricht, sagt er.
"Unsere Ergebnisse sind vergleichbar mit dem, was wir für Menschen mit Zugang zu einer kognitiven Goldstandardtherapie mit ambulanten Anbietern sehen würden", sagt Jacobson. "Wir sprechen davon, Menschen möglicherweise das Äquivalent der besten Behandlung zu geben, die sie im Pflegesystem über kürzere Zeiträume erhalten können."
Kritischerweise berichteten die Menschen von einem Grad an "therapeutischer Allianz" im Einklang mit dem, was Patienten für persönliche Anbieter berichten, wie die Studie ergab. Therapeutische Allianz bezieht sich auf den Grad des Vertrauens und der Zusammenarbeit zwischen einem Patienten und seinem Betreuer und gilt als wesentlich für eine erfolgreiche Therapie.
Ein Hinweis auf diese Bindung ist, dass die Menschen nicht nur detaillierte Antworten auf Therabots Aufforderungen gaben - sie initiierten häufig Gespräche, sagt Jacobson. Interaktionen mit der Software zeigten auch Zuwuchsen in Zeiten, die mit Unwohlsein verbunden sind, wie z. B. mitten in der Nacht.
"Wir haben nicht erwartet, dass die Leute die Software fast wie einen Freund behandeln würden. Es sagt mir, dass sie tatsächlich Beziehungen zu Therabot aufgebaut haben", sagt Jacobson. "Mein Gefühl ist, dass sich die Leute auch wohl gefühlt haben, wenn sie mit einem Bot sprechen, weil er sie nicht verurteilt."
Die Therabot-Studie zeigt, dass generative KI das Potenzial hat, das Engagement eines Patienten und, was vor allem, die fortgesetzte Nutzung der Software zu erhöhen, sagt Heinz.
"Therabot ist nicht auf ein Büro beschränkt und kann überall hingehen, wo ein Patient hingeht. Es war rund um die Uhr für Herausforderungen verfügbar, die im täglichen Leben auftraten, und konnte die Benutzer durch Strategien führen, um sie in Echtzeit zu bewältigen", sagt Heinz. "Aber die Funktion, die es KI ermöglicht, so effektiv zu sein, ist auch das, was ihr Risiko einbirgt - Patienten können alles zu ihr sagen, und sie kann alles erwidern."
Die Entwicklung und die klinischen Tests dieser Systeme müssen strenge Benchmarks für Sicherheit, Wirksamkeit und den Ton des Engagements haben und die genaue Überwachung und Beteiligung von Experten für psychische Gesundheit beinhalten, sagt Heinz.
"Diese Studie hat den Schwerpunkt darauf gebracht, dass das Studienteam gerüstet sein muss, um einzugreifen - möglicherweise sofort - wenn ein Patient ein akutes Sicherheitsproblem wie Selbstmordgedanken äußert oder wenn die Software auf eine Weise reagiert, die nicht mit den besten Praktiken entspricht", sagt er. "Zum Glück haben wir das bei Therabot nicht oft gesehen, aber das ist immer ein Risiko bei generativer KI, und unser Studienteam war bereit."
Bei Auswertungen früherer Versionen von Therabot vor mehr als zwei Jahren stimmten mehr als 90 % der Antworten mit den besten therapeutischen Praktiken überein, sagt Jacobson. Das gab dem Team das Vertrauen, mit der klinischen Studie fortzufahren.
"Seit der Veröffentlichung von ChatGPT strömen viele Leute in diesen Bereich, und es ist einfach, einen Proof of Concept herauszugeben, der auf den ersten Blick großartig aussieht, aber die Sicherheit und Wirksamkeit sind nicht gut etabliert", sagt Jacobson. "Dies ist einer dieser Fälle, in denen eine sorgfältige Aufsicht erforderlich ist, und die Bereitstellung davon unterscheidet uns in diesem Bereich wirklich."
Morgan Kelly

zit. aus DPNW vom 22.08.25



 

 

Druckversion | Sitemap
© Psychotherapeutische Praxis Regina Konrad

Erstellt mit IONOS MyWebsite.