Eine künstliche Intelligenz, die zu mehr Empathie verhelfen soll? Forscher wollen das jetzt in Selbsthilfegruppen für Menschen mit psychischen Erkrankungen testen. Was es damit auf sich hat, lest ihr hier.
Seit einigen Wochen sorgt der Chatbot ChatGPT für Furore. Mithilfe von künstlicher Intelligenz kann er auf Fragen zu unterschiedlichsten Themen antworten – und das in bislang ungeahnter Qualität. Das Programm führt inzwischen sogar Forscher mit selbstgeschriebenen wissenschaftlichen Abstracts an der Nase herum.
Das Interesse an solchen Sprachgenerierungs-Tools ist riesig und Diskussionen um das Potenzial und mögliche Gefahren reißen nicht ab. Spannend ist die Frage, ob und wenn ja, in welchen Bereichen der Medizin, man sie einsetzen könnte. Auch in der Psychologie untersuchen Forscher mögliche Anwendungsgebiete.
In einer Studie, die in Nature Machine Intelligence erschienen ist, haben US-Forscher jetzt untersucht, ob Sprachgenerierungsprogramme, die auf künstlicher Intelligenz basieren, dabei helfen können, die Aussagen von Nutzern in Chats empathischer zu formulieren. Das könnte man sich zum Beispiel bei digitalen Selbsthilfegruppen für Menschen mit psychischen Problemen zu nutze machen. In Chat-Foren oder speziellen Apps tauschen sich die Betroffenen über ihre Probleme aus, teilen Erfahrungen und geben Ratschläge. Ein empathischer Umgang miteinander ist dabei essenziell für den Erfolg, kann aber mitunter schwierig in der Umsetzung sein, denn anders als in Gruppentherapien finden die Gespräche meist unter Laien ohne psychotherapeutische Expertise statt.
Auch wenn es kontraintuitiv klingt – eine Software ohne menschliche Emotionen soll Empathie steigern –, ein KI-Modell könnte hierbei tatsächlich helfen, wie US-Forscher in der Studie nun zeigen. Dazu haben sie ein KI-Modell namens Hailey entwickelt und in eine App eingebettet, die der Plattform TalkLife nachempfunden ist. Diese Plattform ermöglicht es Usern, sich im nicht-klinischen Setting über psychische Probleme auszutauschen. In der nun entwickelten App waren die Rollen so verteilt, dass eine Person ihre Erfahrung und mentalen Probleme schildert und eine andere Person Feedback oder Ratschläge gibt. Die KI Hailey schlug den beratenden Usern Verbesserungs- und Ergänzungsvorschläge vor mit dem Ziel, dass die Antworten empathischer wirken. Die Nutzer konnten sich entscheiden, ob sie die Vorschläge annehmen wollen oder sie ignorieren. Insgesamt nahmen 300 Teilnehmer an der randomisierten Studie teil. Sowohl die Nutzer, die mit Hilfe der KI Nachrichten schrieben, als auch die Kontrollgruppe ohne KI erhielt vorher ein kurzes Training zu Empathie.
Der Einsatz von Hailey führte dazu, dass die Nachrichten im Schnitt als 19,6 % empathischer beurteilt wurden als die Nachrichten, die von Usern ohne Hilfe der KI verfasst wurden. Antworten von Nutzern, die von sich selber behaupteten, Probleme dabei zu haben, sich empathisch auszudrücken, wurden mithilfe der KI durchschnittlich als 38,9 % empathischer bewertet als ohne die Hilfe. Diese Verbesserungen in der Empathie der Nachrichten wurden zum einen von 50 Probanden beurteilt, die ansonsten nicht an der Studie teilnahmen, zum anderen von einem weiteren KI-Modell. Da dieses aber auf dem gleichen Empathie-Modell beruht wie Hailey, habe dieser Befund allein nur begrenzte Aussagekraft, wie die Forscher betonen.
Die Forscher haben außerdem untersucht, ob die Probanden die Nachrichten mit KI-Hinweis als authentisch einstuften – also ob eine Antwort den Eindruck erweckte, dass sie von einem Menschen geschrieben wurde. Am besten schnitten dabei die von Menschen selbst verfassten Nachrichten ab, dicht gefolgt von den Nachrichten, die Mensch und KI gemeinsam geschrieben haben. Am schlechtesten schnitten die Nachrichten ab, die allein aus der Feder der KI stammten. Für die Forscher bedeutet das: Der Ansatz, in dem Menschen von der KI unterstützt werden, ist der vielversprechendste, da dieser ein hohes Ausmaß an Empathie, sowie Authentizität aufweist.
„Der in der Studie gewählte Ansatz ist spannend, aber die Überlegungen sind nicht komplett neu“, meint Prof. Nicole Krämer, Leiterin des Fachgebiets Sozialpsychologie: Medien und Kommunikation von der Universität Duisburg-Essen. „Unter dem Stichwort ‚behavioral enhancement‘ wird in der Forschung bereits seit vielen Jahren erforscht, inwieweit in computervermittelten Diskursen das menschliche Verhalten durch technische Eingriffe ‚verbessert‘ werden kann […]. Neu ist hier, dass dahinter nun tatsächlich ein automatisiertes System steht, das die Aussagen auf Basis eines machine learning Ansatzes selbst generiert.“ Dass das KI-System die Empathie verbessern kann, sei auch wenig überraschend. Krämer: „Letztlich beruhen machine learning Ansätze darauf, dass auf Basis der Daten von Menschen gelernt wird. Das Ergebnis ist also erwartungsgemäß ähnlich zu dem, was entstehen würde, wenn man die Nachrichten eines nicht-empathischen Menschen durch einen empathischen Menschen redigieren lassen würde.“
Ein Durchbruch für den professionellen Einsatz oder bei der psychotherapeutischen Behandlung sei die Studie nicht, meint Krämer. „Für eine solche erfolgreiche Behandlung ist mehr erforderlich als eine Steigerung der Empathie durch Anpassung der Äußerungen. Der hier gewählte Ansatz kann eventuell geeignet sein, empathischere Sprache im Alltag zu nutzen – mit der Notwendigkeit auch das ethisch und rechtlich kritisch zu reflektieren, damit die Botschäftsempfänger*innen nicht unwissentlich halb mit einem Bot sprechen.“
Bei schwerwiegenden psychischen Problemen ist die Behandlung durch einen menschlichen Experten sowieso unausweichlich – das kann auch das beste KI-Modell (noch) nicht leisten.
Bildquelle: Pavan Trikutam, unsplash