KOMMENTAR | „Ich habe eine akute unilaterale follikuläre Tonsillitis, ich brauche Bettruhe und Analgetika. Sagt mein Chatbot jedenfalls.“ Immer mehr Patienten kommen mit Diagnose und Behandlungsplan in die Sprechstunde. Ganz schön nervig – oder?
Neulich wurde ich auf einen kurzen Text von Kumara Raja Sundar in JAMA aufmerksam gemacht. Er beschreibt eine Patientin mit Schwindel – nicht einfach „Schwindel“, sondern „kein Vertigo, eher ein Präsynkope-Gefühl.“ Dazu der Vorschlag: „Vielleicht bringt ein Kipptisch-Test Klarheit.“ Sundar fragte nach, ob sie im Gesundheitswesen tätig sei. Ihre Antwort: „Nein, ich habe ChatGPT gefragt.“
Ich musste beim Lesen schmunzeln. Denn genau so fühlt sich auch mein Praxisalltag inzwischen an. Patienten kommen mit einer vorgefertigten Diagnose, mit Listen möglicher Tests, manchmal sogar mit kompletten Therapieplänen. Früher waren es kopierte Artikel aus der Apotheken Umschau, später Ausdrucke von „Dr. Google“. Heute ist es eben KI. Die Quelle hat sich geändert, der Impuls nicht: Menschen wollen verstehen, was in ihrem Körper vorgeht.
Laut der aktuellen Deloitte-Umfrage zur Digitalisierung im Gesundheitswesen nutzen inzwischen 25 Prozent der Deutschen KI-Tools zur Selbstdiagnose – im Vorjahr waren es noch neun Prozent. Die Dynamik ist rasant – und sie macht auch vor uns Ärzten nicht halt. Ich sage das „für einen Freund“: Auch wir nutzen KI schon. Zur Orientierung bei seltenen Diagnosen, für eine schnelle Literaturübersicht, manchmal als Gedankensprungbrett. Aber wir reden ungern darüber.
Und das hat einen Grund: Patienten vertrauen Ärzten weniger, wenn sie hören, dass diese KI einsetzen – sogar, wenn es nur um Verwaltungsaufgaben geht. Kompetenz, Empathie, Verantwortungsbewusstsein: alles wird schlechter bewertet, sobald das Wort „KI“ fällt. Eine in JAMA Network Open veröffentlichte Studie aus den USA konnte das klar zeigen. In den Köpfen bleibt die Frage hängen: „Verlässt sich mein Arzt da auf eine Maschine?“
Gleichzeitig fehlen uns im Alltag die verlässlichen Werkzeuge. Was wir bräuchten, wäre eine KI, die direkt in die Praxissoftware integriert ist. In ein geschlossenes System, das dokumentiert, zusammenfasst und Diagnosen und Therapieoptionen vorschlägt, ohne dass wir uns um Datenschutz sorgen müssen. Dann könnten wir KI nicht nur heimlich „für einen Freund“ nutzen, sondern transparent und ohne Misstrauen.
Bis dahin bleibt es unsere Aufgabe, KI-Ergebnisse kritisch einzuordnen – unsere eigenen und die der Patienten. Und dies im Gespräch mit Patienten klug zu moderieren. Denn es ist ein Fehler, ihre Recherche abzuwerten. Wer so reagiert, verliert sofort Vertrauen. Viel klüger ist es, das Gehörte aufzugreifen und gemeinsam zu sortieren, dabei vielleicht falsche Gewissheiten zu korrigieren, und dann am Ende Verantwortung zu übernehmen. So kann KI die Wissensnachteile auf der Seite der Patienten etwas ausgleichen und eine Kommunikation mit mehr Augenhöhe ermöglichen.
Und ja: KI ist ein zweischneidiges Schwert. Sie liefert manchmal brillante Einsichten, manchmal aber auch glatte Halluzinationen. Sie macht Medizin, wie wir sie bisher kennen, erst einmal nicht einfacher, sondern komplexer. Aber die eigentliche Frage ist nicht, ob Google, ChatGPT oder der Arzt zuerst die richtige Idee hatte. Die entscheidende Frage ist: Kommen wir gemeinsam zu einem besseren Ergebnis? Zu einer klareren Diagnose, einer passenderen Therapie, einer Behandlung, die Patient und Arzt überzeugt?
Wenn wir es schaffen, Patienten in ihrer Neugier ernst zu nehmen und gleichzeitig unseren eigenen, kritischen Blick einzubringen, dann ist KI kein Problem, sondern schon jetzt eine Hilfe. Und dann dürfen wir den Satz „Ich habe ChatGPT gefragt“ nicht mehr als Provokation verstehen – sondern als Beginn eines besseren Gesprächs.
Sundar: When Patients Arrive With Answers. JAMA, 2025. online
Reis et al.: Impact of Physician Use of Artificial Intelligence on Patient Trust. JAMA Network Open, 2025. doi: 10.1001/jamanetworkopen.2025.21643
Bildquelle: Getty Images, Unsplash