Kann ein Algorithmus drohende Suizide bei Facebook-Nutzern vorraussagen? In den USA wird das Projekt kontrovers diskutiert und führte sogar bereits zu Einweisungen in die Psychiatrie. Experten warnen, denn das Verfahren wurde nie wissenschaftlich evaluiert.
Ein Polizeibeamter aus Ohio erhielt Ende 2018 einen ungewöhnlichen Telefonanruf: Am anderen Ende der Leitung war ein Mitarbeiter von Facebook. Der Social-Media-Gigant gab die Nutzerdaten einer vermeintlich suizidgefährdeten Userin weiter. Die Frau hatte in Posts geschrieben, sie gehe jetzt nach Hause und plane, sich umzubringen. Der alarmierte Beamte kam kurz darauf bei ihr zu Hause an, doch die Frau leugnete ihre vermeintlichen Absichten. Trotzdem glaubte der Polizist, sie könne sich selbst verletzen. Er brachte sie in die psychiatrische Abteilung eines Krankenhauses. Kommen Rettungskräfte in den USA und auch bei uns bald nach kritischen Postings bis an die Haustür?
Mehr Datenschutz, weniger Sicherheit?
In Europa regelt die Datenschutzgrundverordnung (DSGVO), was von wem eingesehen werden darf. Das gilt besonders für Gesundheitsinformationen. Und auch in den Vereinigten Staaten will Facebook die Privatsphäre seiner Nutzer in Zukunft stärker schützen. Das kündigte Facebook-Chef Mark Zuckerberg gestern an. Geplant sei, die Kommunikation auf der Plattform, aber auch im Messenger-Dienst und weiteren Angeboten des sozialen Netzwerks mit einer Komplett-Verschlüsselung abzusichern. Messaging-Dienste wie WhatsApp verwenden diese sogenannte Ende-zu-Ende-Verschlüsselung bereits.
Nutzerdaten, zum Beispiel aus Gesprächsverläufen in Facebook-Gruppen, Video-Chats oder E-Commerce, können so nur noch von Sender und Empfänger gesehen werden. Auch das Facebook-Team selbst habe, laut Zuckerberg, dann keinen Zugriff mehr auf die dort hinterlegten Daten. Das könnte die Problematik rund um Fake News, Hetznachrichten und illegale Inhalte zusätzlich verschärfen. Und der Zugriff auf Postings, die auf drohende Suizide hinweisen, würde ebenfalls erschwert.
Die User wurden nicht gefragt
Trotz Datenschutz sorgen die US-Strategien bei Experten für Bestürzung – auch in Deutschland. „Facebook versucht sich hier an Forschung zu einer medizinischen Diagnose“, sagt Prof. Dr. Tobias Matzner zum Science Media Center Deutschland (SMC). „Diese sollte den strengen methodischen Anforderungen medizinischer Verfahren standhalten.“ Er vermisst bei der Debatte die Einwilligung von Betroffenen, die unabhängige Evaluation und öffentlich nachvollziehbare Kriterien.
„Wenn Facebook ohne Einwilligung seiner Kunden ein nicht wissenschaftlich gestütztes Screening zur Aufdeckung eines erhöhten Risikos für eine Selbsttötung einsetzt und dafür die Privatsphäre der Kunden verletzt, ist das ethisch nicht vertretbar“, ergänzt Prof. Dr. Christiane Woopen gegenüber dem SMC. Sie ist Direktorin des Cologne Center for Ethics, Rights, Economics, and Social Sciences of Health (CERES).
Suizidprävention sei ein wichtiges gesellschaftliches Anliegen. „Wenn Facebook dabei mit seinen technologischen Möglichkeiten und auf der Grundlage seiner riesigen Menge an Daten eine Rolle spielen kann und möchte, soll es sich an die bewährten Standards für die Einführung und Evaluation von Screeningverfahren halten“, ergänzt die Expertin. „Dazu gehört vor allem, dass Facebook unter Einbeziehung unabhängiger Wissenschaftler nachweisen muss, dass das Screening mehr nutzt als schadet. Dazu müssen Daten vorliegen, die auch zu veröffentlichen sind.“
Suizide bleiben weltweit ungelöstes Problem
Denn die Absichten der Betreiber des sozialen Netzwerks sind durchaus ehrenwert. Selbsttötungen sind in fast allen Ländern ein ungelöstes Problem. In Deutschland sterben etwa 10.000 Menschen pro Jahr durch Suizide. Und der Trend geht in der Gruppe zwischen 15 und 20 klar nach oben. Waren es 2013 noch 4,1 Suizide pro 100.000 Einwohner, erfassten Statistiken in 2016 genau 4,9 Fälle pro 100.000 Einwohner. Vergleichbare Tendenzen kommen aus den USA. Zwar gibt es Präventionsprogramme, Hotlines, Websites oder Chats, aber zu signifikant weniger Suiziden haben diese Angebote nicht geführt.
Deshalb setzt Facebook Tools aus dem Bereich der künstlichen Intelligenz (KI) ein, um alle Texte zu screenen. Die Entwickler wollen in Posts so verdächtige Inhalte erkennen. Doch wie soll die KI den Ernst der Lage anhand eines einzigen Beitrags erkennen? Wer zum Beispiel schreibt, „Ich habe so viele Hausaufgaben, ich möchte mich am liebsten umbringen“, wird das wohl kaum in die Tat umsetzen. Nach ersten Fehlschlägen analysieren KI-Tools inzwischen daher auch Kommentare zu den Beiträgen. „Sag mir, wo du bist“ oder „Hat jemand von ihm/ihr gehört?“ gelten dabei als Prädiktoren möglicher Suizide.
Mit künstlicher Intelligenz Selbsttötungen verhindern?
Melden Algorithmen ein potenzielles Risiko, wird das Team der Community Operations von Facebook aktiv. Mitarbeiter prüfen gemeldete Inhalte manuell und entscheiden, ob sie weitere Schritte einleiten. Sie können hier auch kurze Nachrichten, wie die Aufforderung, Freunde zu kontaktieren oder Hotlines anzurufen, an die betroffenen User senden. Besteht laut dem Warnprogramm eine unmittelbare Gefahr der Selbstverletzung, kontaktieren die Administratoren des Netzwerks sogar regionale Behörden.
„Wir sind keine Ärzte und wir versuchen nicht, eine psychische Diagnose zu stellen“, sagte Dan Muriello, Software-Techniker von Facebook. „Wir versuchen, den richtigen Leuten schnell Informationen zukommen zu lassen.“ In einem Blog ergänzt Facebook-Chef Mark Zuckerberg, per KI habe man in 3.500 Fällen mit Helfern Kontakt aufgenommen. Weitere Informationen gibt er nicht. Damit bleibt ungeklärt, wie oft es falscher Alarm war.
Facebook lässt sich nicht in die Karten schauen
In der wissenschaftlichen Welt regt sich Widerstand. Die New York Times warnt, es sei nicht klar, ob der Ansatz effektiv oder sicher wäre. Facebook erklärte der Tageszeitung, aus Datenschutzgründen habe man die Ergebnisse von Anrufen bei der Polizei nicht verfolgt. Das lag vermutlich eher an den Ordnungshütern als am Konzern. Auch der Algorithmus steht im Kreuzfeuer der Kritik. Facebook habe Aufgaben einer öffentlichen Gesundheitsbehörde übernommen und gleichzeitig den zugrundeliegenden KI-Prozess wie ein Unternehmensgeheimnis geschützt. „Es ist schwer zu wissen, was Facebook tatsächlich aufnimmt, worauf sie tatsächlich reagieren und ob sie angemessen auf das entsprechende Risiko reagieren ", sagte Dr. John Torous, Direktor der Abteilung für digitale Psychiatrie am Beth Israel Deaconess Medical Center in Boston. „Es ist Black-Box-Medizin.“
An der Methode selbst zweifelt Torous nicht generell. Er berichtet von einem Forschungsprojekt am Department of Veterans' Affairs. Das Tool durchsucht per KI elektronische Patientenakten. Auf Basis von Diagnosen, Symptomen oder Medikamenten werden mögliche Risiken ermittelt. Das kann zur Vermittlung weiterer Hilfsangebote führen. Auch Ian Barnett von der Perelman School of Medicine an der University of Pennsylvania teilt die kritische Einschätzung. Der Experte hält KI-Tools grundsätzlich für geeignet, fordert aber deren Evaluation anhand klinischer Studien. Das sei im Fall von Facebook nicht geschehen, so Torous.
Bildquelle: Pixabay, Pexels