Ein einziger Satz vom Patienten, schon steht für den Arzt die Diagnose fest. Ärztliches Denken folgt Mustern – und das ist auch gut so. Warum Erfahrung trotzdem zur Falle werden kann, zeigt ein Blick auf den Ankereffekt.
Im klinischen Alltag müssen Ärzte schnelle Entscheidungen treffen, oft unter Zeitdruck und mit unvollständigen Informationen. Um diese Komplexität zu bewältigen, greift das menschliche Gehirn auf Heuristiken zurück: mentale Abkürzungen, die Urteile beschleunigen. Was im Alltag hilfreich ist, kann in der Medizin jedoch zur Gefahr werden. Studien legen nahe, dass kognitive Verzerrungen an einem Großteil aller diagnostischen Fehler beteiligt sind.
Ein besonders gefährlicher Fallstrick ist der Ankereffekt. Dabei bekommen frühe Informationen, selbst wenn sie unsicher oder gar falsch sind, übermäßige Bedeutung im weiteren Entscheidungsprozess. Spätere Hinweise werden unbewusst an dieser ersten Einschätzung ausgerichtet oder ignoriert. Forscher haben untersucht, wie stark dieser Effekt ärztliche Diagnosen tatsächlich beeinflusst. Dazu wurden 54 praktizierende Ärzte aus Spanien mit klinischen Fallvignetten konfrontiert. Das sind kurze, strukturierte Beschreibungen von fiktiven, aber realitätsnahen Patientensituationen. Sie umfassen typische Informationen wie Alter, Symptome, Vorerkrankungen, Befunde oder Untersuchungsergebnisse. Der entscheidende Unterschied: In einer Version der Fallvignette hatte der Patient Angst, an einer schweren Krankheit zu leiden – und äußerte auch seine Vermutung. In der anderen Version fehlte dieser Hinweis vollständig. Medizinisch waren beide Fälle identisch. Im Zuge der Studie sollten Ärzte eine Diagnose stellen und angeben, welche Untersuchungen sie veranlassen würden. So ließ sich messen, ob allein die früh geäußerte Befürchtung die diagnostische Richtung verändert hat.
Tatsächlich ergab die Auswertung klare Effekte: Wenn Patienten eine ernste Erkrankung ins Gespräch brachten, stellten Ärzte signifikant häufiger genau diese Diagnose – selbst ohne zusätzliche objektive Hinweise. Die anfängliche Information fungierte als kognitiver Anker und bestätigte die Vermutung der Forscher. Er hat das weitere Denken strukturiert. Statistisch war dieser Zusammenhang signifikant. Zwar erklärt der Effekt nur einen Teil der Gesamtvarianz. Doch in der klinischen Realität können selbst kleine Verzerrungen große Folgen haben, etwa durch unnötige Diagnostik oder durch nicht berücksichtigte Differenzialdiagnosen.
Besonders bemerkenswert war auch der nächste Befund: Fachärzte zeigten eine höhere Anfälligkeit für den Ankereffekt. Intuitiv hatten die Autoren erwartet, dass größere Erfahrung und Spezialisierung vor kognitiven Fehlern schützen. Die Daten belegen jedoch das Gegenteil. Eine mögliche Erklärung: Spezialisten arbeiten stark musterorientiert. Sie erkennen typische Krankheitsbilder schnell, was im Normalfall von Vorteil ist. Wird jedoch früh ein passender Hinweis gegeben, könnte diese Mustererkennung vorschnell „einrasten“, sodass alternative Diagnosen weniger Beachtung finden. Die Spezialisierung machte Ärzte allerdings nicht generell anfälliger für Fehler. Entscheidend war die Kombination aus Expertise und der suggestiven Anfangsinformation.
Ansonsten hatten weder das Geschlecht noch die Berufsjahre einen signifikanten Einfluss auf die Ankeranfälligkeit. Das spricht dafür, dass es sich um einen grundlegenden Mechanismus menschlicher Informationsverarbeitung handelt, nicht um ein Defizit bestimmter Gruppen.
Der Ankereffekt wirkt meist unbewusst. Haben Ärzte ihre erste Hypothese zur Diagnose gebildet, sucht ihr Gehirn bevorzugt nach bestätigenden Hinweisen. Widersprüchliche Informationen werden weniger stark gewichtet oder anders interpretiert. Dieser Prozess läuft schnell und automatisch ab. Genau das macht ihn im Klinikalltag so gefährlich. Gleichzeitig sind solche mentalen Abkürzungen nicht per se negativ. In Notfallsituationen ermöglichen sie rasches Handeln. Problematisch wird es, wenn sie unreflektiert bleiben und sich falsche erste Eindrücke verfestigen.
Die Ergebnisse zeigen, wie wichtig Schulungen sind. Ärzte sollten während der Ausbildung nicht nur lernen, Krankheiten zu erkennen, sondern auch die eigenen Denkprozesse zu hinterfragen.
Hilfreiche Strategien sind zum Beispiel:
Solche Maßnahmen zielen nicht darauf ab, Intuition abzuschaffen, sondern sie durch reflektiertes Denken zu ergänzen. Gerade Spezialisten könnten den Autoren zufolge davon profitieren, ihre schnelle Mustererkennung regelmäßig zu hinterfragen. Denn selbst erfahrene Ärzte fallen in solche Denkmuster und die diagnostische Qualität hängt nicht nur vom medizinischen Wissen ab, sondern auch von der Fähigkeit, eigene Denkprozesse zu hinterfragen. Wer lernt, den ersten Eindruck nicht für die ganze Wahrheit zu halten, verringert das Risiko folgenschwerer Fehlentscheidungen und Fehldiagnosen.
Bildquelle: Susan Q Yin, Unsplash