Große Sprachmodelle wie ChatGPT haben Potenzial – doch viele Ärzte schöpfen es oft nicht aus. Wie ihr Fallstricke vermeidet und effizient mit der Technologie umgeht, lest ihr hier.
Ob es einem gefällt oder nicht: Künstliche Intelligenz ist im medizinischen Alltag längst angekommen und entwickelt sich in rasantem Tempo weiter. Während sich die einen vehement gegen den Einsatz von KI-Tools wehren, nutzen andere sie hemmungslos, vertrauen ihnen Patienteninformationen an und übernehmen den Output unreflektiert. Wie so oft liegt ein vernünftiger Umgang mit dem Thema irgendwo in der Mitte zwischen den beiden Extremen.
Da der ärztliche Alltag traditionell schon sehr vollgestopft ist, bleibt wenig Zeit, sich bei den rasenden Entwicklungen rund um KI auf dem Laufenden zu halten. Daneben fehlt es oft an Verständnis dafür, was diese Systeme eigentlich tun – und was eben nicht. Ähnlich wie beim Autofahren sollte man als KI-Nutzer einige grundlegende Funktionsweisen verstanden haben, Risiken und Probleme (er)kennen und ein paar Tricks im Umgang mit dem Gefährt beherrschen. Schließlich kommt man auch im Verkehr besser ans Ziel, wenn man sich an grundlegende Regeln hält, die Grenzen seines Fahrzeugs kennt und nicht nur im ersten Gang unterwegs ist. In diesem Text findest du daher ein paar nützliche Hinweise zum Umgang mit KI im medizinischen Alltag – die natürlich auch außerhalb der Klinik funktionieren.
Ein sehr offensichtlicher Vorteil von KI – insbesondere von den frei verfügbaren Large Language Models (LLM) – ist die Geschwindigkeit. Innerhalb von Sekunden liefern LLM Antworten, fertig formulierte Texte und überzeugende Argumente, für die man als Mensch mit herkömmlichen Methoden – also Denken, Recherchieren etc. – Stunden oder sogar Tage braucht. Dabei fühlt es sich an, als würde man mit einem Menschen sprechen bzw. schreiben, nur halt einem, der extrem schnell denkt und alles weiß.
Und damit sind wir direkt bei einem der größten Fehler, die im Umgang mit LLM gemacht werden: Viele Nutzer nehmen ChatGPT, Claude, Perplexity u. ä. als Menschen war. Im täglichen Sprachgebrauch hört man immer häufiger Sätze wie „ChatGPT hat gesagt“ oder „Hast du schonmal Chatty gefragt?“. Das Problem: LLMs sind keine Menschen und erst recht keine Übermenschen. Sie sind textbasierte Wahrscheinlichkeitsmaschinen. Sie haben keine Ahnung, was sie erzählen und ihnen ist egal, ob dir wirklich geholfen ist oder nicht. Sie sagen nur das nächstwahrscheinliche Wort voraus. Immer und immer wieder, bis ein Text dabei herauskommt.
Wenn man nun einen Text nach Wahrscheinlichkeiten zusammensetzt, kommen dabei zwar in der Regel verständliche Sätze raus und es ist „viel Schönes dabei“, aber wenn der Algorithmus auf dem Weg zum nächsten Wort einmal falsch abbiegt, wird es ungenau und das Modell beginnt, zu halluzinieren. Aus „eine Studie zeigte“ wird schnell „eine 2023 veröffentlichte Studie von Honk et al. im New England Journal of Medicine zeigte“, obwohl es die gar nicht gibt. Gerne wird dann auch noch überzeugend eine komplette Fußnote dazu generiert, in der Autoren, Erscheinungsjahr, Journal und Doi von verschiedenen Veröffentlichungen wild durcheinanderjongliert werden. Am Ende sieht die Quelle schön aus, existiert aber eben nur in der Vorstellung von „Chatty“.
Doch statt nun die Finger von der KI zu lassen und sich einem „Ich hab’s doch gewusst“-Gefühl hinzugeben, lohnt es sich, etwas genauer hinzuschauen und zu lernen, das Werkzeug richtig zu bedienen. Denn: Wer die Spielregeln beherrscht und sein LLM im Griff hat, kann sich selbst das Leben leichter machen und viel Frust und Zeit sparen. Richtig eingesetzt kann die KI dabei helfen, den Fokus in der Arbeit wieder mehr auf die wesentlichen Inhalte zu lenken. Stürzen wir uns also rein in die Materie!
Zuerst einmal ist es wichtig, zu verinnerlichen, dass LLMs zwar viel wissen – also Informationen abgespeichert haben – aber nichts verstehen. Sie haben kein Konzept von Wahrheit und prüfen ihre Ergebnisse eben nur statistisch und nicht vernünftig. Gar nicht mal so intelligent. Gerade in der Medizin, wo Vertrauen, Präzision und Evidenz zählen und im wahrsten Sinne des Wortes über Leben und Tod entscheiden können, kann das gefährlich werden. Wer KI-Output unreflektiert übernimmt, produziert schnell Pseudo-Fakten mit täuschend echter akademischer Verpackung. Sozusagen eine gelungene Fälschung von medizinischer Evidenz. Dieses Problem abgespeichert zu haben, ist schon fast die halbe Miete im Umgang mit LLM.
Stell dir vor, das LLM deiner Wahl ist ein extrem fleißiger, aber unfassbar unerfahrener Mitarbeiter. Er ist schnell, nie genervt und macht keine Tippfehler. Aber: Er denkt nicht mit! Das bleibt zum Glück den Menschen vorbehalten. LLMs können Texte glätten oder aus Stichpunkten formulieren, sie können aber keine Verantwortung übernehmen. Ein LLM versteht keine Zwischentöne, versteht keine Ironie und keinen Subtext (DocCheck berichtete). Bei der Kommunikation gilt daher: Wer ungenau fragt, bekommt ein ungenaues Ergebnis. Im Umkehrschluss: Formuliere deinen Prompt so, dass er keine Missverständnisse zulässt.
Eine einleitende Information, die in keinem Prompt fehlen sollte, ist die Zuweisung einer Rolle. Möchtest du Informationen zu einem kardiologischen Krankheitsbild, dann beginn deinen Prompt beispielsweise mit dem Satz „Du bist Kardiologe und spezialisiert auf Herzkatheteruntersuchungen“. Möchtest du eine Zusammenfassung einer Studie haben, dann weise dem LLM die Rolle „Wissenschaftsjournalist“ zu.
Gib einen Stil vor. Fordere z. B. einen sachlichen, präzisen und prägnanten Sprachstil, wenn du dir Informationen zusammenfassen lässt. Ein lockerer, ironischer Schreibstil könnte je nach Medium für einen journalistischen Artikel geeignet sein. Du kannst auch das Nennen von anschaulichen Beispielen einfordern, oder das Niveau der Erklärung anpassen – je nach Zielgruppe. Wenn du dem LLM sagst, dass du selbst Arzt bist, wirst du eine andere Antwort erhalten, als wenn du dich als Patient ausgibst.
Nutze keine Verneinungen. LLM machen hier den gleichen Fehler wie menschliche Gehirne. Ein Klassiker ist das Beispiel mit dem rosa Elefanten. Oder denkt an ein Kind, das Angst bekommt, obwohl ihm die Eltern doch gesagt haben, dass es keine Angst haben muss. Verneinungen sind komplexer, als man denkt. Formuliere deine Anweisung also andersherum – also: „Denk an bunte Vögel.“ Oder was man eben gerade braucht.
Lass das LLM selbst Fragen stellen. Sehr hilfreich ist es, zu fragen, welche Informationen das LLM noch braucht, um eine gute Antwort zu liefern. Es ist erstaunlich, welche Aspekte die LLM dabei ausspuckt, an die man gar nicht gedacht hatte. Im klinischen Alltag könnte das so aussehen: „Du bist Neurologe und hilfst mir mit einem Patientenfall. Mein Patient hat seit gestern akuten Drehschwindel. Einen Schlaganfall und einen benignen paroxysmalen Lagerungsschwindel haben wir ausgeschlossen. Welche Informationen brauchst du, um mir eine Liste mit Differenzialdiagnosen zu erstellen?“
In welchen konkreten Fällen kannst du LLMs also in deinem Berufsalltag in der Klinik einsetzen, um Zeit und Nerven zu sparen? Hier kommen ein paar Ideen.
Letztlich soll und kann die KI keinen gesunden Menschenverstand ersetzen, aber sie kann ihn wunderbar entlasten. Wer ihre Eigenheiten und Starrsinnigkeit kennt und die Spielregeln beachtet, kann nervige und aufwendige Routinearbeit abgeben und sich wieder mehr auf das konzentrieren, was wirklich wichtig ist – und Spaß macht. Sieh KI nicht als Wundermittel, sondern eher als verdammt fleißigen Assistenten. Etwas überspitzt könnte man sagen: KI ist wie ein Berufsanfänger in seinen ersten Wochen – hilfreich, wenn man ihn anleitet, gefährlich, wenn man ihn unkontrolliert machen lässt.
Bildquelle: A. C., Unsplash