In Sekundenschnelle liefert KI überzeugende Antworten auf komplexe Fragen. Doch umso mehr sie die Denkarbeit übernimmt, desto weniger trainieren Medizinstudenten ihr klinisches Denken. Droht ein Kompetenzverlust?
Generative künstliche Intelligenz hat die medizinische Ausbildung schneller erobert als jedes digitale Tool zuvor. Sprachmodelle fassen Inhalte zusammen, erklären pathophysiologische Mechanismen, schlagen Differenzialdiagnosen vor und verwandeln Stichpunkte aus Mitschriften in Texte. Doch was wie eine moderne Lernhilfe wirkt, greift tief in kognitive Prozesse ein, auf denen ärztliche Kompetenz beruht. In BMJ Evidence-Based Medicine warnen Fres Alahdab von der University of Missouri und Kollegen vor möglichen Folgen dieser Entwicklung für die Ärzte von morgen.
Kritisch wird die Sache, wenn Studenten KI-Ergebnisse höher bewerten als ihr eigenes, noch unsicheres klinisches Urteil. Dieser sogenannte Automationsbias entsteht schleichend durch Gewöhnung: Wer ständig sieht, dass ein System schnell, flüssig und plausibel antwortet, hinterfragt die Ergebnisse immer seltener – und bleibt unkritisch, selbst wenn Anamnese, Befunde und Empfehlungen nicht zusammenpassen. Gerade für Anfänger entsteht dabei ein schlechtes Lernumfeld. Kritisches Denken entwickelt sich nicht durch ein paar Klicks bzw. Prompts und durch das Lesen der generierten Texte. Wichtiger sei, selbst mit Unsicherheit, Widersprüchen und offenen Fragen umzugehen, schreiben Alahdab und Kollegen in ihrem Paper.
Noch schwerer zu erkennen ist das sogenannte kognitive Offloading. Dabei werden Informationssuche, Strukturierung und gedankliche Verknüpfung an die Maschine ausgelagert. Das spart Zeit, aber auch geistige Mühen. Aus lernpsychologischer Sicht wäre genau diese Anstrengung aber entscheidend für stabile Gedächtnisstrukturen und für den flexiblen Umgang mit Wissen. Wer komplexe Zusammenhänge nicht mehr selbst erarbeitet, sondern generieren lässt, erkennt Inhalte zwar wieder, kann sie aber schlechter erklären, verknüpfen oder auf neue Situationen übertragen. In Prüfungen und im klinischen Alltag wird das schnell zum Problem. Entwickelt sich KI früh zur Denkstütze, fehlt später die Sicherheit im Umgang mit diagnostischer Unsicherheit – einer Kernkompetenz der medizinischen Arbeit. Erfahrene Ärzte können Defizite teilweise durch ihre Erfahrung ausgleichen. Studenten und Ärzten in Weiterbildung fehlt dieses Netz aber noch.
Neben den kognitiven Folgen hat KI auch eine ethisch und praktisch brisante Dimension: Systeme übernehmen Verzerrungen aus ihren Trainingsdaten. Unterschiede in Sprache, Empfehlungen oder Risikobewertungen entlang sozialer oder demografischer Merkmale kommen vor. In der Ausbildung wiegen solche Verzerrungen besonders schwer, weil sie wie scheinbar objektive Information wirken. Hinzu kommt ein Problem, das Alahdab und seine Koautoren als „halluzinierte Evidenz“ bezeichnen: Sprachmodelle können Studien, Leitlinien oder Zitate erfinden, die nicht existieren – und das in wissenschaftlich überzeugendem Ton. Medizinstudenten mit wenig Fachwissen erkennen solche Fakes aber kaum, vor allem ohne ergänzende Quellenrecherche. Damit gerät ein Grundpfeiler ärztlicher Arbeit unter Druck: die klare Unterscheidung zwischen gesicherter Evidenz, plausibler Hypothese und reinem Fake. Gelangen KI-Aussagen ungeprüft in Referate, Hausarbeiten oder klinische Überlegungen, wird Scheinevidenz Teil des Lernprozesses.
Auch der Datenschutz ist mehr als ein Randthema. Studenten geben Fallbeschreibungen in offene Systeme ein, meist in der Annahme, eine Anonymisierung sei ausreichend. Doch seltene Erkrankungen, genaue Zeitangaben oder charakteristische Kombinationen klinischer Details können Rückschlüsse auf einzelne Patienten ermöglichen. Wer früh verinnerlicht, sensible Informationen selbstverständlich in externe Systeme zu kopieren, entwickelt ein problematisches Verständnis zur Schweigepflicht und zum Datenschutz – mit möglichen Folgen weit über die Ausbildungszeit hinaus.
Kritikpunkte gibt es viele. Das bedeutet aber keineswegs, KI aus dem Studium zu verbannen. Sie wird Teil der künftigen Arbeitswelt sein. Entscheidend ist jedoch ihre didaktische Einbettung. Prüfungsformate sollten stärker den Denkprozess sichtbar machen, statt nur Ergebnisse zu bewerten, etwa bei Multiple-Choice-Fragen. Studenten müssten dann begründen, warum sie KI-Vorschläge übernehmen oder verwerfen, aber nicht nur Felder ankreuzen. Ebenso wichtig sind KI-freie Lernumgebungen, etwa mündliche Prüfungen, praktische Examina oder strukturierte Entscheidungsaufgaben, in denen eigenständiges Denken unter realistischen Bedingungen gefordert ist.
Darüber hinaus gehört KI-Kompetenz selbst ins Curriculum: das Verständnis der Funktionsweise solcher Modelle, typische Fehlerquellen sowie Strategien zur systematischen Überprüfung von Aussagen anhand von Primärliteratur und Leitlinien. Generative KI ist nicht nur ein zusätzliches Tool, sondern ein Faktor, der unser Lernen selbst verändert. Sie beeinflusst, wie Wissen aufgebaut, überprüft und eingesetzt wird. Wird sie zu früh zur kognitiven Krücke, schwächt sie genau jene Fähigkeiten, die Ärzte in komplexen und unsicheren Situationen benötigen. Es geht darum, sicherzustellen, dass KI ärztliches Denken ergänzt – und nicht schleichend ersetzt.
Hough et al.: Potential risks of GenAI on medical education. BMJ Evidence-Based Medicine, 2025. doi: 10.1136/bmjebm-2025-114339
Bildquelle: Mohamed Nohassi, Unsplash