Mir liegt ein bestimmter Name auf der Zunge, aber ich komme einfach nicht drauf. Beim Smalltalk auf der Cocktailparty könnten mir meine Freunde sicher helfen – oder ich frage einfach ChatGPT. Aber weiß die KI es wirklich besser?
Viel wird zurzeit über die Zuverlässigkeit künstlicher Intelligenz gesprochen – dazu möchte ich euch eine kleine Geschichte erzählen. Ich arbeite momentan an einem Buch über Real World Data und Real World Evidence in der medizinischen Forschung. Dabei spielt natürlich Datenschutz eine große Rolle. Für das entsprechende Kapitel verwendete ich ein Beispiel, in dem es einer MIT-Studentin unter Verwendung zweier unterschiedlicher Quellen gelang, die elektronischen Gesundheitsdaten eines ehemaligen Gouverneurs von Massachusetts zu identifizieren.
Während meiner Zeit als Chief Medical Officer eines Real World Data-Unternehmens in Cambridge hatten wir viele Diskussionen über Datenschutz – und dieser Vorfall mit einem Gouverneur war natürlich ein Gesprächsthema. Aber jetzt, einige Jahre später, hatte ich seinen Namen einfach vergessen. Ein Aussetzer im Langzeitgedächtnis, der manchmal passieren kann, wenn man älter wird. Also fragte ich ChatGPT, wer der ehemalige Gouverneur von Massachusetts war, dessen Krankenakten identifiziert wurden, als er einen Unfall hatte und ins Krankenhaus eingeliefert wurde.
ChatGPT antwortete, dass es Michael Dukakis war, dessen Krankenakten 1988 öffentlich wurden und Details über seinen Gesundheitszustand enthüllten, darunter eine Depressionsgeschichte. Ich war mir natürlich 100 % sicher, dass es nicht Michael Dukakis war, nach dessen Namen ich suchte. Also formulierte ich die Frage ein wenig um und stellte sie ChatGPT erneut.
Diesmal kam als Antwort Charlie Baker heraus. Auch hier wusste ich, dass dies nicht der Name war, nach dem ich gesucht hatte. Charlie Baker war Gouverneur, als ich in Cambridge, Massachusetts, arbeitete. Während dieser Zeit hatte ich nie von einem Vorfall gehört, bei dem die Krankenakten des Gouverneurs kompromittiert worden waren. Ich suchte danach, überprüfte alle verfügbaren Informationen bei Wikipedia, einer Webseite, die ich für sehr vertrauenswürdig halte, da sie selbstkorrigierend ist und von wirklichen Menschen überwacht wird. Dort wurde kein Vorfall mit Charlie Bakers Krankenakten erwähnt.
Ich wollte wissen, was ChatGPT über Charlie Bakers Unfall weiß und bekam folgende Antwort: „Ich entschuldige mich für die Verwirrung vorhin. Tatsächlich war es nicht Charlie Baker, sondern Gouverneur Deval Patrick, dessen Krankenakten im Jahr 2012 geleakt wurden.“ Auch hier war dies nicht der Name, nach dem ich gesucht hatte. Ich dachte der Name ist kurz und beginnt irgendwie mit „W“, vielleicht Gouverneur Ward? Also gab ich meine grobe Schätzung in ChatGPT ein und bekam eine weitere Antwort: „Der Gouverneur von Massachusetts, auf den Sie sich beziehen, ist wahrscheinlich Christian Herter, dessen Krankenakten 1954 geleakt wurden.“ Ich bekam also vier Namen, aber keiner davon war der Name des ehemaligen Gouverneurs von Massachusetts, nach dem ich verzweifelt suchte.
Ich gab ChatGPT auf und wechselte zu Google. Eine schnelle Google-Suche löste das Problem schließlich, als der Name „Bill Weld“ herauskam.
Ich bin sicher, liebe Leser, ihr könnt die Erleichterung nachvollziehen, wenn man verzweifelt nach einem Namen sucht. Man ist sich 100 % sicher, dass man den Namen kennt („es liegt mir auf der Zunge“), aber er will einfach nicht herauskommen und dann hilft jemand und sagt den Namen – und dann fühlt man Erleichterung und fragt sich: „Warum zum Teufel konnte ich mir diesen Namen nicht merken?“
Hätte dieses Gespräch als Smalltalk stattgefunden, zum Beispiel während einer Cocktailparty, hätte man kein großes Aufheben darum gemacht und hätte alle aufkommenden falschen Namen als freundliche Versuche der Freunde betrachtet, das Gedächtnis etwas aufzufrischen. Man würde den Freunden sicherlich keine Vorwürfe machen oder sie der Lüge bezichtigen, sondern vielleicht einfach sagen: „Also Leute, danke, dass ihr versucht habt zu helfen, aber ihr wisst es ja auch nicht besser.“
Aber in diesem Fall sprechen wir von künstlicher Intelligenz, die vier verschiedene und falsche Antworten auf praktisch dieselbe Frage lieferte, was ein typisches Zeichen dafür ist, dass das System unzuverlässig und nicht robust ist. Was wäre, wenn ich nicht nur einfache Gedächtnisprobleme gehabt hätte, sondern den Namen überhaupt nicht gekannt hätte und ChatGPT zur Recherche für mein Buch verwendet und die erste Antwort für selbstverständlich gehalten hätte? Ich hätte „Fake News“ erstellt, zumindest Fehlinformationen verbreitet.
Die Lektion, die ich aus diesem Fall ziehe, ist daher: Nimm künstliche Intelligenz nicht ernster als deine Freunde bei einem Smalltalk auf einer Cocktailparty (nach ein paar Drinks). Überprüfe immer andere Quellen. Die endgültige Entscheidung über die Verwendung der Antwort von ChatGPT und die letztendliche Verantwortung müssen bei einem Menschen liegen, nicht bei einem Computer – denn später kannst du nicht einfach der Technologie die Schuld geben.
Bildquelle: Erstellt mit Midjourney.