KI-Tools können Ärzte entlasten, das Zwischenmenschliche blenden sie jedoch aus. Was im Anamnese-Gespräch wie Smalltalk klingt, ist oft diagnostisch relevant – wird aber von der KI rausgefiltert. Ein Hausarzt berichtet.
Immer häufiger greifen Ärzte auf Künstliche Intelligenz (KI) zurück, um Patientengespräche automatisch zu dokumentieren – und sparen damit kostbare Zeit. Doch dieser Gewinn an Effizienz hat seinen Preis: Was verloren gehe, sei mehr als nur belangloser Small Talk, warnt der US-amerikanische Hausarzt Gordon D. Schiff im NEJM. Seit einem Jahr nutzt er eine KI-gestützte Software zur Dokumentation. Das System kombiniert Spracherkennung mit KI. Es verwandelt ein Gespräch in wenigen Sekunden in einen strukturierten Arztbrief – inklusive Anamnese, Befunden, Ergebnissen und Therapieplan. Was früher abends mühsam in stundenlanger Arbeit erledigt werden musste, läuft nun automatisch. Zumindest in der Theorie.
Denn die Software hat einen blinden Fleck: Alles, was nicht unmittelbar medizinisch relevant erscheint, erfasst sie nicht. Informationen über Familie, Reisen, Stress oder Hobbys – also genau jene Äußerungen, die im Zweifelsfall wichtige Anhaltspunkte liefern, fehlen in der Dokumentation. Hinter beiläufigen Bemerkungen könnten sich aber Hinweise auf psychosoziale Belastungen, mangelnde Therapieadhärenz oder mögliche Krankheitsursachen verbergen – etwa nach Aufenthalten in tropischen Regionen.
Dass diese zwischenmenschlichen Aspekte fehlen, ist kein Versehen, sondern Teil des Designs. Schiff hat einen Blick in die Dokumentation der Software „Microsoft Nuance DAX“ geworfen. Darin schreibt der Hersteller, die KI filtere Inhalte, welche für die medizinische Bewertung „nicht relevant“ seien. Gemeint sind genau jene Aussagen, die für menschliche Ärzte oft entscheidend, für die KI aber weder kodier- noch abrechnungsrelevant sind. Alles, was sich nicht vordergründig einer Diagnose oder medizinischen Maßnahme zuordnen lässt, wird systematisch ausgeblendet.
„Ich war schockiert, aber nicht überrascht“, sagt Schiff. Denn dieser Fokus auf Effizienz und Standardisierung spiegele einen grundlegenden Wandel in der Medizin wider. Bleibt als Frage: Soll medizinische Versorgung auf zwischenmenschlichen Beziehungen und Empathie beruhen – oder auf Algorithmen?
Gerade in der hausärztlichen Versorgung sind Nähe, Vertrauen und Kontinuität entscheidend – nicht nur für das Wohlbefinden der Patienten, sondern auch für die Qualität medizinischer Entscheidungen. Wird dieser Ansatz durch KI-Dokumentation verdrängt, droht ein fundamentaler Verlust. Was verschwinde, sei nicht nur das Persönliche, sondern die Grundlage einer guten Versorgung, fürchtet Schiff. Und das ist nicht neu.
Ein Beispiel: In vielen US-amerikanischen digitalen Patientenakten tauchte die Formel „soziale Anamnese negativ ×3“ auf – ein Hinweis auf den Verzicht von Alkohol, Tabak und Drogen. Doch Schiff fragte seine Studenten, wenn er Vorlesungen hält: „Leben diese Menschen im luftleeren Raum? Haben sie keine Familie, keine Arbeit, keine Interessen?“ Schon lange habe sich in der Medizin der Blick verengt – auf das, was sich quantifizieren und abrechnen lasse. Die Nutzung von KI treibe solche Trends weiter voran.
Gleichzeitig ist Schiff klar, dass KI eine große Hilfe sein kann – gerade in einem Gesundheitssystem, in dem viele Ärzte unter chronischer Überlastung leiden. Die Aussicht, den Feierabend nicht mehr vor dem Bildschirm mit Dokumentationen zu verbringen, ist zweifellos verlockend. Doch der Hausarzt warnt vor einem Trugschluss. Schon bei früheren Innovationen, etwa medizinischen Schreibkräften, sei es nicht bei der angestrebten Entlastung geblieben, erinnert er sich. Vielmehr habe man die Effizienzsteigerung genutzt, um den Druck auf Ärzte zu erhöhen und mehr Patientenkontakte pro Stunde zu erwarten. Diese Gefahr sieht Schiff auch bei der KI: Was als Möglichkeit eingeführt werde, könne schnell zur Pflicht werden.
Ein weiterer Kritikpunkt: KI-Tools übernehmen nicht nur die strukturierte Erfassung von Gesprächen oder Notizen, sondern auch die inhaltliche Bewertung, also diagnostische Einschätzungen und Therapieentscheidungen. Doch gerade hier sieht Schiff das Herzstück ärztlicher Arbeit. „Ich reflektiere, was ich gesehen, gehört und verstanden habe. Ich ziehe Schlüsse, ich übernehme Verantwortung“, schreibt der Hausarzt. Wird dieser Prozess automatisiert, geht ein Stück ärztlicher Autonomie verloren.
Zudem lesen heute auch viele Patienten ihre Arztbriefe. Solche Dokumente sind längst mehr als ein reiner fachlicher Austausch zwischen Kollegen, sie gelten als Teil der Arzt-Patienten-Kommunikation. Wenn KI den Text formuliert, „spricht“ sie auch im Namen des Arztes – mit allen ethischen und rechtlichen Implikationen.
Schiff ist aber klar, dass KI-Tools nicht mehr verschwinden werden. Wie könnte also ein sinnvoller Umgang mit den neuen Technologien aussehen? Der Hausarzt plädiert dafür, Systeme so weiterzuentwickeln, dass sie auch persönliche, sozialmedizinisch relevante Informationen erfassen – und zwar selektiv und unter ärztlicher Kontrolle. Die Software müsse dem Arzt dienen, nicht umgekehrt.
Letztlich, so Schiff, sei jedoch ein tieferer Wandel nötig: weg von einem durch Effizienzdruck geprägten System, hin zu einer Versorgung, die den Menschen in den Mittelpunkt stelle. Ihm geht es um nichts weniger als um die Frage, wie Patienten in Zukunft behandelt werden wollen – als Menschen oder als Datensätze. Und ohne den Smalltalk rund um das Anamnesegespräch verschwinde auch ein Teil der Medizin.
Quelle:
Schiff: AI-Driven Clinical Documentation — Driving Out the Chitchat? NEJM, 2025. doi: 10.1056/NEJMp2416064
Bildquelle: Anastasiya Badun, Unsplash