Künstliche Intelligenzen wie ChatGPT sind das Thema der Stunde. Die KI gibt sogar medizinische Ratschläge – können wir Ärzte also jetzt unsere Kittel an den Nagel hängen?
Vor Kurzem war ein Freund zu Besuch und im Laufe der Unterhaltung kamen wir auf das Thema ChatGPT. Für diejenigen, die davon bisher noch nichts gehört haben: ChatGPT ist eine text-basierte, künstliche Intelligenz. Heißt, dass man eine Frage tippen kann – und dann eine konkrete Antwort bekommt.
Als ich die ersten Artikel über ChatGPT las, war mir nicht ganz klar, warum das so was Neues ist. Aber der Punkt ist, dass wir uns alle daran gewöhnt haben, dass man bei den klassischen Suchmaschinen zwar auch Fragen eingeben kann, aber dann nur eine Liste mit den Internetseiten angezeigt bekommt, wo die Worte der Frage vorkommen. Das klassische Beispiel ist „Was ist das beste Restaurant der Stadt Kopenhagen?“ Bisherige Suchmaschinen listen dann Internetseiten auf, die die Begriffe „beste“, „Restaurant“ „Stadt“ und „Kopenhagen“ enthalten. Was genau genommen keine Antwort auf die Frage ist, aber darüber habe ich seit ewigen Zeiten nicht mehr nachgedacht. War einfach so. ChatGPT antwortet dagegen auf Fragen mit einer Antwort – in diesem Fall berichtet es davon, welche Restaurants wie viele Sterne haben und warnt sogar vor den hohen Kosten. Eher so, wie ein Mensch wirklich antworten würde.
Wir haben dann natürlich ein bisschen rumprobiert. Meine Tochter war beeindruckt, als ChatGPT auf Nachfrage sofort einen Text zum Thema „Geschichtliche Einordnung der Ermordung Julius Cäsars in 150 Worten“ (ok, es waren 153 Worte, aber in weniger als 30 Sekunden geschrieben) generierte. Die Witze sind noch gewöhnungsbedürftig, aber Gedichte beispielsweise waren wirklich beeindruckend schnell geschrieben.
Erst einige Tage später kam mir die Idee, auch mal medizinische Fragen zu stellen. Ganz ehrlich: Ich war extrem beeindruckt. Die erstellten Ratschläge waren ziemlich genau das, was ich meinen Patienten als Hausärztin auch erzählen würde (z. B. zum Thema „Antibiotika bei Erkältung“, „Gelenkschmerzen“). Was ich besonders interessant fand: Hinter der eigentlichen Antwort kommt immer eine Begründung, die oft fast noch interessanter ist als die eigentliche Antwort, weil sie die Hintergründe erläutert. Inklusive der anzunehmenden Wahrscheinlichkeit. Also eben nicht „Knie aufgeschlagen, gegoogelt, Krebs“, sondern es wurde eindeutig priorisiert, was wahrscheinlich war. Am Ende kam ein kurzer Disclaimer, dass man natürlich einen Arzt aufsuchen solle, wenn man unsicher ist.
Also gilt ab jetzt „Fragen Sie Ihren Arzt, Apotheker oder ChatGPT“? Ganz so einfach ist das natürlich nicht. Denn das Problem (wie immer) ist: Aus welchen Daten lernt die künstliche Intelligenz von ChatGPT und vergleichbaren Suchmaschinen? Denn davon hängt entscheidend ab, wie gut die Antworten auf Dauer sind. Ich habe in der Hinsicht mal den Begriff des Supervised Learning gehört, dass also nur gezielte Datensätze gefüttert werden und somit der Input halbwegs kontrolliert wird. Sonst drohen Probleme, was auch bereits seit Jahren (und auch bei Vorläufern von ChatGPT) diskutiert wurde.
Denn ChatGPT merkt sich den Gesprächsverlauf und nimmt darauf Bezug. Und man kann auch sagen „Nein, ChatGPT, da hast Du falsch gelegen“ – und das wird dann berücksichtigt. Das ist wiederum dann schwierig, wenn man selbst falsch liegt, weil man damit ChatGPT etwas Falsches beibringt. Und wenn man was Falsches füttert, kommt später auch was Falsches raus. Also wird es leider so sein, dass, wenn genug Leute ChatGPT erzählen, dass doch ein Antibiotikum beim Schnupfen notwendig war, ChatGPT irgendwann leider zur Antibiose raten würde. Und leider ist ChatGPT nicht darauf programmiert, zu sagen, wann es unsicher ist, weshalb wir uns im Umkerhrschluss nicht sicher sein können, ob das jetzt alles schon so richtig ist, was ChatGPT als Wahrheit verkauft.
Also doch als technischen Schnickschnack abhaken, den man eh im Alltag nicht braucht? Ich habe für mich noch eine Anwendung gefunden, die ich extrem praktisch fand: Ich hatte einen Patienten im Notdienst gesehen, der zwar viele Symptome hatte (Beinödeme, Belastungsdyspnoe, erhöhter Hämatokrit), bei dessen Einweisung ins Krankenhaus aber letztlich unklar geblieben war, wo es hergekommen war. Letztlich wurde im Krankenhaus nur eine Herzinsuffizienz ausgeschlossen und mit Diuretika ausgeschwemmt, außerdem wurden diverse Laborwerte erhoben. Eine wirkliche Diagnose hatte der Patient nicht bekommen – und das bei einem Mittvierziger, bei dem Ödeme von mehr als 10 kg Flüssigkeit ja schon sehr ungewöhnlich sind. Und erwartungsgemäß rief er zwei Tage später an, weil er wieder zunahm, da die Diuretika nur im Krankenhaus gegeben worden waren und auch immer noch keine ursächliche Diagnose bekannt war. Was also hatte der Patient denn nun?
Symptombasierte Suchen im Netz sind schwierig – wenn man Glück hat, findet man einen Treffer, der die richtigen Schlagworte hat, aber in dem Fall war es einfach zu unspezifisch, als dass ich damit ernsthaft etwas gefunden hätte. Also habe ich aus Neugier ChatGPT gefragt und war echt überrascht, dass es sich doch ein bisschen wie ein kollegiales Gespräch anfühlte – ich hab die Symptome geschildert und bekam Antworten, was abzuklären wäre. Immer, wenn ich dann spezifizierte, was schon gemacht worden war oder wie die Laborwerte waren, wurde weiter differenziert. Das fand ich schon extrem beeindruckend.
Letztlich fiel mir beim Durchschauen der seitenlangen Laborwerte dann selbst recht zügig auf, wo das Problem war (ausgeprägte Proteinurie) und ich habe den Patienten dann nephrologisch vorgestellt. Aber da ich neugierig war, habe ich weiter das Gespräch mit ChatGPT geführt – und es war schon beeindruckend, dass dieser Algorithmus innerhalb einiger Fragen dann zum selben Ergebnis kam und die nephrologische Vorstellung empfahl.
Was ist also mein erstes Fazit? Wenn man entsprechend gute Daten reingibt, könnten solche Programme in Zukunft (!) eine positive Ergänzung im ärztlichen Alltag sein. Sie können definitiv den Arzt-Patienten-Kontakt und auch den kollegialen Austausch nicht ersetzen. Aber vielleicht diese Google-induzierte Angst, mit der viele Patienten kommen, etwas relativieren, weil nicht ungefiltert Suchtreffer mit dem Wort „Krebs“ rausgeworfen werden, sondern Wahrscheinlichkeiten halbwegs realistisch abgeschätzt werden. Worin natürlich auch die Gefahr liegt, dass der Patient fälschlich beruhigt wird. Aber, Hand aufs Herz: Das ist ja im Kontakt mit uns menschlichen Ärzten genauso – auch wir können falsch liegen.
Wo ich eine wirkliche Stärke sehe, ist eine zügigere Unterstützung bei Symptomkonstellationen, die man selbst spontan nicht zuordnen kann. Wie schon erwähnt, ist da ein kollegiales Netzwerk auch sinnvoll, aber das hat man nicht immer schnell zur Verfügung. Natürlich gilt: Unfehlbar sind selbst Computer nicht, sondern nur so gut wie die Daten und Algorithmen, mit denen sie gefüttert wurden. Aber sie können eine zusätzliche Unterstützung sein.
Habt ihr auch schon Erfahrungen mit der KI gesammelt? Ich würde mich über eure Kommentare dazu freuen!
Bildquelle: Mariia Shalabaieva, Unsplash