
Heute Morgen erinnerte mich mein Wellness-Coach daran, jeden aufregenden Moment meines Tages zu genießen, aber immer Zeit zu finden, um mich auszuruhen und aufzuladen. Es ist ein guter Ratschlag – gut genug, dass ich glauben würde, er käme von einem Menschen und nicht von einem künstlichen Intelligenz-Algorithmus, der als pandaartiger Cartoon anthropomorphisiert wurde.
Mein pandaartiger Algorithmus lebt in der Earkick-App. Jeden Tag kann ich Earkick nutzen, um meine Stimmung durch Schreiben, Sprachnachricht oder Video zu beschreiben. Etwa 20 Sekunden später hat sein Algorithmus meine Aussage auf Anzeichen von Angst analysiert und eine personalisierte, konversationsorientierte Empfehlung ausgespuckt, wie ich mich am besten fühlen kann.
Earkick ist eine von vielen Chatbots, von denen Woebot wohl am bekanntesten ist, die versprechen, die Macht von KI zu nutzen, um die psychische Gesundheit zu unterstützen. Beschreiben Sie einem dieser Chatbots ein Problem und er kann mit etwas antworten, das sich wie Mitgefühl anfühlt, Vorschläge machen oder Nachfragen stellen, genau wie ein menschlicher Kliniker – und mit einer ziemlich guten Erfolgsquote, wie Forschungen zu diesem Thema zeigen. Erste Beweise deuten darauf hin, dass Chatbots Elemente der kognitiven Verhaltenstherapie und andere psychische Gesundheitsinstrumente gut genug liefern können, um Symptome von Depressionen und Stress zumindest ein wenig zu reduzieren, und Earkicks Daten zeigen, dass Menschen, die die App etwa fünf Monate lang nutzen, eine Verbesserung der Stimmung um 34% und eine Reduzierung der Angst um 32% berichten. In einer Umfrage fanden 80% der Personen, die ChatGPT für Ratschläge zur psychischen Gesundheit genutzt hatten, es eine gute Alternative zur regulären Therapie.
Aber ist es das wirklich? Therapie ist schließlich eine Praxis, die traditionell auf menschlicher Interaktion, Vertrauen und Intimität und emotionaler Intelligenz aufgebaut ist. Studien zeigen immer wieder, dass die Beziehung zwischen Therapeut und Klient einer der besten Prädiktoren für den Erfolg einer Behandlung ist, was bedeutet, dass es „entscheidend ist, dass der Patient ein Gefühl des Vertrauens zum Therapeuten hat, dass er den Therapeuten als warmherzig, verständnisvoll und einfühlsam erlebt und dass er den Eindruck hat, mit dem Therapeuten reden zu können“, sagt David Tolin, außerordentlicher Professor für Psychiatrie an der Yale University School of Medicine und ehemaliger Präsident der Association for Behavioral and Cognitive Therapies.
Es gibt Forschungsergebnisse, die darauf hindeuten, dass Menschen eine Verbindung zu „konversationellen Agenten“ wie Chatbots aufbauen können. Und angesichts des völlig unzureichenden Zugangs zu herkömmlichen Anbietern bestehen eindeutig potenzielle Vorteile, sie als Ersatz einzusetzen. Aber kann KI wirklich die Erfahrung des Sprechens und der Annäherung an einen menschlichen Therapeuten duplizieren – und sollte sie das?
„Ich sage das teilweise als praktizierender Therapeut“, sagt Tolin. „Ich fände es ein wenig traurig, wenn wir die menschliche Verbindung irgendwann durch eine Computerverbindung ersetzen würden.“
In einem viel größeren Ausmaß als medizinische Fachgebiete, die auf Biomarkern und Testergebnissen basieren, verlässt sich die psychische Gesundheitsversorgung auf Subjektives: wie ein Patient seine Symptome beschreibt, wie sein Kliniker sie wahrnimmt, innere Veränderungen und Durchbrüche, die sich nicht leicht mit Zahlen messen lassen. In gewisser Weise bedeutet dies, dass dieses Gebiet nach KI schreit, mit ihrer Fähigkeit, in riesigen Informationsmengen, die Menschen nicht leicht verarbeiten können, Muster und Bedeutungen zu finden. (Tatsächlich legen erste Forschungsergebnisse nahe, dass KI Ärzten helfen könnte, das richtige Antidepressivum für einen bestimmten Patienten auszuwählen, oder seine Sprache oder sein Schreiben auf Anzeichen psychischer Belastung zu untersuchen.) Aber die Unergründlichkeit der Therapie macht es auch schwierig, sie zu duplizieren.
Traditionelle Therapie ist keineswegs perfekt, aber Schätzungen zufolge sehen etwa drei Viertel der Menschen, die sie ausprobieren, eine gewisse Verbesserung. Es ist nicht immer klar, warum sie wirkt. Das „Dodo Bird Verdict“, eine langjährige, aber umstrittene Theorie, besagt, dass verschiedene Therapiestile in Bezug auf die Wirksamkeit mehr oder weniger gleich sind, was darauf hindeutet, dass psychologische Methoden allein nicht das sind, was Patienten hilft. Stattdessen können die Vorteile der Therapie zum Teil aus einer schwer quantifizierbaren Mischung von Faktoren resultieren, einschließlich der Stärke der therapeutischen Beziehung, dem bewussten Einräumen von Zeit und Raum für psychisches Wohlbefinden oder einfach dem Wissen, dass jemand zuhört, wenn man spricht, sagt J.P. Grodniewicz, ein Philosoph, der Einschränkungen von KI in der Therapie erforscht und darüber geschrieben hat.
„Vielleicht geht es bei der Psychotherapie nicht wirklich um eine bestimmte Technik“, sagt er. „Vielleicht geht es darum, einen Kontext zu schaffen, in dem jemand als Person wächst, sich selbst erforscht, vielleicht existenziellen Ängsten ins Auge sieht, jemanden hat, mit dem er über [schwierige Themen] sprechen kann.“
Ohne die Zutaten in diesem Cocktail und wie sie zusammenwirken, um die psychische Gesundheit zu verbessern, klar definieren zu können, ist es schwierig – wenn nicht unmöglich – einen Algorithmus so zu trainieren, dass er die Erfahrung nachahmt, meint Grodniewicz.
Peter Foltz, ein Machine-Learning-Forscher an der University of Colorado in Boulder, stimmt zu, dass der Mangel an harten Daten im Bereich der psychischen Gesundheit Herausforderungen mit sich bringt. Schließlich ist ein Algorithmus nur so gut wie die Daten, mit denen er trainiert wurde.
„Was man wirklich tun möchte, ist, die Charakterisierungen, die KI vornimmt, mit bestimmten Arten von Beweisen in Verbindung zu bringen“, sagt Foltz. „Und im Bereich der psychischen Gesundheit geht es wirklich darum, eine Art neuropsychologische Veränderung im Gehirn oder im Geist zu erkennen… und es muss noch viel mehr Forschung betrieben werden, um sehr deutlich zu machen, was wir messen.“
Wenn man sich jedoch Dinge ansieht, die sich leicht messen lassen – wie Menschen ihre Symptome selbst berichten – zeigen erste Studien, dass Chatbots Depressionen, Angstzustände und andere Probleme der Patienten verbessern können. Einige Studien deuten auch darauf hin, dass die Verarbeitung von Traumata und Emotionen durch Schreiben eine wirksame Bewältigungsstrategie ist, was impliziert, dass eine selbstgeführte App zur psychischen Gesundheit nützlich sein könnte, auch wenn sie das Erlebnis, auf der Couch eines Therapeuten zu liegen, nicht perfekt dupliziert.
„Die entscheidende Frage ist, ob eine Behandlung wirkt“, sagt Tolin. „Wenn das der Fall ist, sind wir glücklich.“ Um zu bestätigen, dass KI-unterstützte Therapie tatsächlich wirkt, sind nach Aussage von Tolin weitere Forschungen erforderlich, insbesondere um festzustellen, ob sie allein oder nur in Verbindung mit einem traditionellen Anbieter eingesetzt werden kann. Wenn Studien jedoch konsequent zeigen, dass sie wirksam ist, kann es wichtiger sein zu wissen, dass sie wirkt, als genau zu wissen, wie sie wirkt.
In der Zwischenzeit gibt es jedoch eine andere große Frage zu beantworten…