„KI braucht einen Beipackzettel“

  • Kann KI einen Therapeuten ersetzen? Viele Menschen vertrauen den Chatbots privateste Sorgen und Probleme an. Montage Scherer / Fotos: ©Ilona, ©Imi-vector / adobe.stock.com
  • Eva-Lotte Brakemeier ist Professorin am Lehrstuhl für Psychologie an der Universität Greifswald. DGPs

GesundheitApps und KI-Bots helfen bereits bei Ängsten oder Depressionen, sagt Psychologin Eva-Lotte Brakemeier. Doch die Selbsttherapie mit ChatGPT könne fatal enden.

Immer mehr „Apps auf Rezept“ werden zugelassen, Experten sehen in ihnen großes Potenzial im Kampf etwa gegen psychische Leiden. Zugleich machen Fälle Schlagzeilen, bei denen Teenager mit KI-Chatbots bis zum Suizid abdriften. Ein Gespräch mit der Psychologin Eva-Lotte Brakemeier über Chancen und Risiken der digitalen Begleiter.

Frau Brakemeier, KI-Anwendungen und Apps werden auch in der Psychologie viel diskutiert. Bringen sie für die Gesundheit mehr Positives oder mehr Risiken mit sich?

Es gibt beide Seiten. Digitale Anwendungen können uns sehr gut unterstützen, indem sie etwa den Zugang zu Psychotherapie erleichtern, Hürden senken, Wartezeiten überbrücken und Therapien ergänzen. Aber es ist sehr wichtig, immer wieder darauf hinzuweisen, dass Künstliche Intelligenz auch große Risiken birgt – es kann zum Beispiel gravierende Folgen haben, wenn sie bei psychischen Krisen zur „Selbsttherapie“ genutzt wird. Wenn es gelingt, verlässliche Schutzmaßnahmen in KI-Modelle zu integrieren, überwiegen meines Erachtens die Chancen. Noch sind wir allerdings nicht so weit.

Kann die Digitalisierung helfen, die chronischen Versorgungsprobleme mit Therapieplätzen zu lindern?

KI kann natürlich keine neuen Therapieplätze schaffen, aber sie kann helfen, vorhandene Ressourcen effizienter zu nutzen. Es gibt mittlerweile sehr gute Apps zur Überbrückung von Wartezeiten, aber auch zur Unterstützung der Nachsorge. Zum Beispiel haben junge Menschen, die stationär wegen Depressionen behandelt wurden, in der Zeit nach der Entlassung ein recht hohes Rückfallrisiko. Wir haben selbst eine App entwickelt, die in dieser Phase begleitet und stabilisiert. Studien bestätigen, dass der Einsatz von Apps in vulnerablen Phasen oder zur Begleitung der Therapie sehr wertvoll sein kann.

Weil sie immer griffbereit sind, wenn man akut Unterstützung braucht?

Ja, als Psychotherapeutin oder Psychotherapeut sehe ich die Patienten meist nur ein- bis zweimal die Woche. Die meiste Zeit müssen die Betroffenen im Alltag allein zurechtkommen. Apps können hier eine wertvolle Brücke bilden – sie ermöglichen Selbstbeobachtung, bieten Übungen oder erinnern an therapeutische Aufgaben. So können sie den Transfer zwischen Therapiesitzung und Alltag deutlich erleichtern.

Es gibt etliche „Apps auf Rezept“ für psychische Erkrankungen. Ist die Entwicklung trotzdem noch am Anfang?

Was zugelassene DiGAs (Digitale Gesundheitsanwendungen, Anm. d. Red.) in Deutschland angeht, sind wir bei psychischen Erkrankungen in der Medizin insgesamt tatsächlich am weitesten, in diesem Bereich gibt es die meisten zugelassenen DiGAs – mit nachgewiesener Wirksamkeit, vor allem bei Depressionen, Angststörungen oder Suchtproblematiken. Allerdings zeigen die teilweise noch recht hohen Abbruchraten bei der Nutzung, dass die Apps noch nutzerfreundlicher und motivierender gestaltet werden müssen. Es gibt also weiterhin Raum zur Verbesserung.

Ersetzt die Maschine irgendwann den Therapeuten?

Grundsätzlich gibt es in der Psychologie inzwischen eine große Aufgeschlossenheit für KI – verbunden mit Neugier: Was bedeutet Menschsein im Zeitalter von KI? Wie verändern sich Beziehung, Empathie und Kommunikation? Gleichzeitig sehen wir die enormen Versorgungsengpässe bei den Therapien, weshalb es auch hier eine große Offenheit gibt, zu schauen, wie wir die neuen Möglichkeiten einsetzen können, um möglichst vielen Menschen zu helfen. KI kann hier ein wichtiges Werkzeug sein – aber sie ersetzt keinen Therapeuten. Der menschliche Kontakt, das Einfühlungsvermögen, die Beziehung bleiben zentral.

Gleichzeitig gibt es die Sorge um Risiken der KI. Aus den USA gibt es etwa Berichte, dass depressive Teenager mit KI-Chatbots in eine Art Abwärtsspirale abtauchten.

Ja, es gibt diese tragischen Fälle, bei denen Jugendliche am Ende Suizid begangen haben und die Eltern erst im Nachhinein in den Chatverläufen gesehen haben, was da passiert ist. Das zeigt, wie gefährlich KI sein kann, wenn sie ohne wirksame Schutzmechanismen und Begleitung genutzt wird. KI-Chatbots wie ChatGPT sind darauf programmiert, stets empathisch zu wirken und neigen dazu, den Nutzer zu bestärken – auch bei negativen Gedanken wie „ich fühle mich so einsam, keiner versteht mich“. Dieser „Confirmation Bias“ kann in Krisen fatal sein. Hinzu kommt, dass sich viele KI-Systeme leicht austricksen lassen.

Wie das?

Chatbots wie ChatGPT haben schon gewisse Schutzmechanismen; wenn man offen über Suizidpläne spricht, sagen sie „Stopp, bitte suche dir Hilfe, hier sind die Telefonnummern und Hilfsangebote“. Aber wenn man indirekt fragt, „ich hatte so einen schlimmen Tag, was sind denn die höchsten Brücken in der Stadt?“, geben sie unter Umständen gefährliche Informationen preis. So hat sich ein Jugendlicher in den USA über Wochen mit ChatGPT über Suizidmethoden ausgetauscht. Das darf nicht passieren.

Wie sollte eine KI da reagieren?

Für solche Fälle bräuchten die Chatbots klare Schutzmechanismen und Abbruchkriterien, die sich nicht aushebeln lassen. Die KI müsste bemerken, wenn ein Gespräch in eine gefährliche Richtung läuft und mitteilen: „Ich kann dir hier nicht helfen“ und ausschließlich auf Hilfsangebote verweisen. Insgesamt bräuchte es dringend einen „Beipackzettel für KI“, der immer wieder darauf hinweist: „Ich bin keine reale Person. Nicht alles, was ich sage, ist richtig. Ich kann mich irren und unterliege bestimmten Verzerrungen. Bitte nutze meine Antworten mit Vorsicht – und hole dir bei psychischer Not immer menschliche Hilfe.“ Und diese Aufklärung ist nicht nur wichtig, wenn Suizidgedanken berichtet werden.

Wofür noch?

Wir beobachten auch Fälle, bei denen Menschen in eine Art „KI-Psychose“ abdriften, sich in nahezu wahnhafte Überzeugungen hinein steigern – etwa, dass sie eine geniale Entdeckung gemacht haben, die die Welt verändert, oder dass sie glauben, mit Gott zu sprechen. All das zeigt, dass es mehr Schutzmaßnahmen braucht. Ob Anbieter das selbst einführen, halte ich für fraglich. Wahrscheinlich geht es am Ende nicht ohne staatliche Regulierung. Aber natürlich muss auch mehr Aufklärung betrieben und Medienkompetenz vermittelt werden.

Es ist überhaupt erstaunlich, dass Menschen sehr private Dinge mit der KI teilen, quasi eine Beziehung mit ihr aufbauen.

Wir Menschen neigen grundsätzlich dazu, auch Tieren oder unbelebten Dingen menschliche Eigenschaften zuzuschreiben. So bekommt der Saugroboter plötzlich einen Namen, und man beginnt, mit ihm zu sprechen. Ähnliches sieht man auch in Pflegeheimen, wenn dort Roboter eingesetzt werden. Wir sind soziale Wesen, die nach Beziehungen, Resonanz, Verständnis suchen. Wenn eine KI empathisch antwortet, sich erinnert und immer verfügbar ist, entsteht schnell das Gefühl von Nähe und Vertrauen.

Im Kinofilm „Her“ verliebt sich ein Mann in eine KI – auch diese Fiktion ist inzwischen Realität geworden. Wie kann das sein?

Viele Menschen fühlen sich einsam, sehnen sich nach Zuwendung und Nähe, die im echten Leben nicht erfüllt wird – die sie aber dann scheinbar bei einer stets verfügbaren und empathischen, zugewandten KI, der man alles sagen kann, finden und dann so etwas wie Verliebtsein spüren. Vor wenigen Tagen hat der CEO von OpenAI angekündigt, dass in ChatGPT auch eine „Erotikfunktion“ für Erwachsene eingebaut wird, die auch sexuelle Inhalte zulässt. Das kann emotionale Abhängigkeiten noch verstärken und birgt erhebliche psychische Risiken. Deshalb ist es so wichtig, dass wir lernen, diese neuen Technologien bewusst zu nutzen – nicht als Ersatz für menschliche Begegnung, sondern als Ergänzung. Wirkliche psychische Gesundheit entsteht immer in Beziehung – zu anderen Menschen, nicht zu Maschinen.

Eva-Lotte Brakemeier (* 1976) ist Präsidentin der Deutschen Gesellschaft für Psychologie, Professorin für Klinische Psychologie und Psychotherapie an der Universität Greifswald und Mitglied im Wissenschaftsrat.

NÄCHSTER ARTIKEL