Wird der Radiologe schon bald verschwinden? Der Informatiker Geoffrey Hinton ist davon überzeugt. Künstliche Intelligenz soll den Platz des Arztes einnehmen. Hinton ist sich sicher, dass Deep-Learning-Systeme in fünf Jahren besser als Radiologen sein werden.
Radiologen gelten als Early Adopter unter den Ärzten. Innovationsfreudig und zukunftsgerichtet sind sie stets zur Stelle, wenn Technik sich weiter entwickelt und neue Perspektiven für die Radiologie eröffnet. Der Erfolg gab den Radiologen bislang Recht: Seit Konrad Wilhelm Röntgen vor mehr als 120 Jahren die unsichtbare Strahlung entdeckte, befindet sich die Radiologie auf Erfolgskurs. Heute sind bildgebende Verfahren aus der Medizin nicht mehr wegzudenken. Sie haben sich in nahezu allen medizinischen Teilbereichen als wertvolle diagnostische oder therapeutische Instrumente etabliert. In letzter Zeit scheinen Radiologen jedoch von Unsicherheiten geplagt zu sein, wenn es um ihre Zukunft im medizinischen Räderwerk geht. Verheißungsvolle Begriffe, wie künstliche Intelligenz (KI), Deep Learning oder Big Data treiben ihnen zwar ein Funkeln in die Augen, gleichzeitig aber auch Angstschweiß auf die Stirn.
Ausgelöst wurden ihre Existenzsorgen im Jahr 2016 durch einen britischen Informatiker, der das Aussterben der Berufsgruppe prognostizierte: „Es ist ganz offensichtlich, dass in fünf Jahren Deep-Learning-Systeme besser als Radiologen sein werden. Wir sollten sofort aufhören, Radiologen auszubilden.“ Geoffrey Hinton heißt jener apokalyptische Reiter aus Großbritannien. Er ist der Ururenkel von George Boole, dessen boolesche Algebra einen Meilenstein in der Entwicklung unserer schönen digitalen Welt bedeutete. Hinton selbst gilt als einer der wichtigsten Experten bezüglich Deep Learning und ist seit 2013 bei Google unter Vertrag, um die Welt durch KI noch schöner zu machen. Seine medienwirksamen Phrasen über das Schicksal der Radiologen gingen damals um die Welt und schafften es über die Fachpresse hinaus bis in die Massenmedien.
Werden wir also nach dem Jahr 2021 die Kollegen aus der Radiologie auf die Liste der bedrohten Arten setzen müssen, weil sie durch intelligente Computerprogramme verdrängt wurden? Für Radiologen ist dies jedenfalls ein Topthema. Auf Kongressen, wie zuletzt dem Europäischen Radiologenkongress (ECR) in Wien, diskutieren sie ihre Daseinsberechtigung mit Fragen ohne jede Verzierung: „Die Radiologie wird überleben, aber wird der Radiologe dann noch hier sein?“ oder „Die Maschinen kommen. Brauchen wir noch einen Radiologen?“ Die Antworten auf diese Fragen fallen sehr unterschiedlich aus. Als ganz unbegründet sieht die Angst jedoch kaum jemand. Eine optimistische Haltung vertritt etwa Michael Forsting, Direktor vom Institut für diagnostische und interventionelle Radiologie und Neuroradiologie am Universitätsklinikum Essen. Der ehemalige Präsident der Deutschen Röntgengesellschaft geht davon aus, dass intelligente Maschinen den Radiologen dabei assistieren werden, Befunde noch verlässlicher und präziser zu gestalten. Zudem könnten Radiologen dank KI-basierter Verfahren bald noch tiefere Einblicke in Krankheiten erhalten. Bram van Ginneken, Professor an der Radboud University in den Niederlanden, sieht die Sache deutlich pessimistischer: Er vermutet, dass sich Radiologen auf lange Sicht von ihrem Fach verabschieden müssen, da Computerprogramme so gut wie menschliche Experten sein werden, jedoch deutlich weniger kosten.
Einigkeit herrscht jedenfalls darüber, dass KI den radiologischen Alltag tiefgreifend verändern wird. Denn Deep-Learning-Algorithmen haben das Potenzial, Bilder besser als menschliche Experten zu analysieren und zudem komplexe, multiparametrische Analysen mit geringeren Fehlerrisiken durchzuführen. Was es dazu braucht, sind passende neuronale Netzwerke, die durch Training selbstständig gelernt haben, eigene Erkenntnisse aus Bilddaten zu ziehen. Auf welche Weise ein neuronales Netzwerk zu seinen Ergebnissen kommt, das ist selbst für Informatiker nicht immer nachvollziehbar. Selbst der Google-Experte Geoffrey Hinton räumte in einem Interview für The New Yorker diesbezüglich ein: „Es ist weit entfernt davon, trivial zu sein. Glauben Sie niemanden, der das Gegenteil behauptet.“ Gesprochen wird daher von einer „Black Box“, in welcher die Daten analysiert werden. Oder eben von Deep Learning.
In der Radiologie sind automatische Bildanalysen an sich nichts Unbekanntes. Bereits in den 1970er Jahren wurden erste Versuche dazu unternommen. Doch die für einen Erfolg notwendigen technischen Voraussetzungen existierten erst ab 2013. Seither vervielfachte sich jedes Jahr die Zahl der wissenschaftlichen Publikationen zum Einsatz von Deep Learning in der radiologischen Diagnostik. In 2016 wurden bereits über 300 Studien veröffentlicht. Ein Jahr zuvor war es gerade einmal ein Drittel davon. Ein Großteil der Studien befasst sich derzeit mit der Detektion und Klassifizierung von Pathologien anhand von Bilddaten – zwei wichtigen Tätigkeiten der Radiologen. Manche in Studien erprobte Deep-Learning-Algorithmen konnten bereits beachtliche Erfolge erzielen. Viel Aufsehen bescherte der KI etwa eine Studie von Forschern der kalifornischen Stanford University. Das Team entwickelte eine Deep-Learning-Anwendung, die Thoraxröntgen nach 14 verschiedenen Erkrankungen analysiert. Bereits nach einer kurzen Lernphase von wenigen Wochen konnte das Programm alle Erkrankungen selbstständig diagnostizieren. Bei der Detektion einer Pneumonie schnitt es sogar signifikant besser ab als seine vier menschlichen Kollegen. Ebenfalls aus Kalifornien stammte die Neuigkeit über ein Deep-Learning-System, das maligne Verkalkungen in der Brust verlässlicher detektierte als die menschlichen Experten. In dieser retrospektiv aufgebauten Studie demonstrierten die Forscher zudem, dass die maschinelle Mammographie-Analyse über die Hälfte der Biopsien hätte verhindern können. Forschungsergebnisse wie diese und die Tatsache, dass auch Google an einer Deep-Learning-Lösung für Mammographie-Analysen arbeitet, legen laut Michael Forsting nahe, dass die Screenings bald von KI-Algorithmen übernommen werden. Dies wäre insbesondere spannend für Länder wie China, wo die Einführung eines Brustkrebs-Screenings aus Mangel an Radiologen bislang nicht möglich gewesen sei.
Michael Forsting geht davon aus, dass intelligente Programme in Zukunft nicht nur die Analyse von Mammographien übernehmen könnten, sondern auch andere zeitintensive Routineaufgaben, wie das Ausmessen einer Tumorlast in Follow-up Untersuchungen bei Prostatakrebs- bzw. Lungenkrebs-Patienten oder das Zählen von MS-Plaques im Gehirn. Besonders während der Nachtschichten oder an Wochenenden wäre solch ein digitaler Assistent „eine wunderbare Hilfe“. Fehlerfrei seien diese Systeme jedoch nicht. Ersetzen könne Deep Learning den Radiologen aus Fleisch und Blut aber vor allem aus einem Grund nicht: Radiologen suchen nach weitaus mehr, als nur nach der Antwort auf eine gestellte Frage: beispielsweise halten sie bei einem Schlaganfall-Patienten nicht nur nach dem schuldigen Gefäßverschluss Ausschau, sondern auch nach zerebralen Blutungen, die eine Therapie mit Antikoagulanzien problematisch machen. Nebenbei würden Radiologen auch einen Tumor nicht unbeachtet lassen, sollte er auf den Bildern zu erkennen sein. Eine Software zur Analyse von Schlaganfällen, sei sie noch so intelligent, würde dem Tumor vermutlich keine Bedeutung schenken.
Wie auch Michael Forsting sieht Hugh Harvey, ein britischer Radiologe und erfolgreicher Blogger, die Zukunft mit den intelligenten Maschinen als eine Chance. In einem auf Towards Data Science im Januar veröffentlichten Blog-Artikel prophezeite er, dass KI mehr Raum für die Kommunikation mit den zuweisenden Klinikern und den Patienten schaffen werde: „KI wird uns wieder zu Ärzten machen [...] Zu lange haben wir uns in dunklen Räumen versteckt. KI hat die Macht, Radiologen wieder hinaus ans Licht zu führen.“ Harvey hätte zudem kein Problem damit, den Computer bestimmte Befundungen selbstständig durchführen zu lassen, die er dann nur noch unterzeichnen müsse, bevor sie an den Kliniker gesendet werden. Genau darin sieht der niederländische Radiologe van Ginneken hingegen eine große Gefahr: „Wozu braucht es dann noch einen Radiologen?“ Schließlich könnte der von den Maschinen erstellte Befund auch direkt an den zuweisenden Arzt übermittelt werden. Um nicht ersetzbar zu sein, müsse man schließlich etwas wirklich Nützliches leisten, argumentierte der Holländer. Dabei scheint er jedoch zu übersehen, dass diagnostische Radiologen neben der Erstellung und Unterzeichnung von Befunden auch noch viele andere Aufgaben erfüllen: das Stellen der rechtfertigenden Indikation beispielsweise oder die gewissenhafte Planung der komplexen, mitunter auch strahlungsintensiven Untersuchung, sowie die Nachverarbeitung der Scandaten. Darüber hinaus gibt es auch noch interventionell arbeitende Radiologen, die von der künstlichen Intelligenz derzeit gar nicht bedroht sind.
In ungewissen Zeiten schadet es dennoch nicht, sich über den eigenen Wert im Räderwerk Gedanken zu machen. Forsting rät den Radiologen daher, sich aktiv in die Gestaltung der Algorithmen einzubringen. „Radiologen, die KI verwenden, werden jene ersetzen, die es nicht tun“, prophezeit auch Curt Langlotz, Professor für Radiologie und Biomedizinische Informatik an der Stanford University. Radiologen besitzen laut Forsting zudem etwas sehr wertvolles, was nicht einmal Google und andere Unternehmen mitbringen: die Daten. Digitale Archive mit qualitativ hochwertigen Bilddatensätzen, die für das Training der Maschinen gebraucht werden. Denn Deep-Learning-Algorithmen – darin sind sich alle im Klaren – können nur so gut werden, wie das Lehrmaterial, mit dem sie trainiert werden.
Die Radiologen sind in der Medizinbranche nicht alleine mit ihren Ängsten. Sie sind nur die Ersten, die sich damit konfrontieren müssen. Auch die Pathologen könnten bald um ihre Stellung fürchten. Erst kürzlich wurde eine Studie veröffentlicht, in der Deep-Learning-Algorithmen Lymphknotenmetastasen von Brustkrebs-Patientinnen akkurater analysierten als elf Pathologen. Künstliche Intelligenz wird die gesamte Medizin tiefgreifend verändern. Schon jetzt sind Melanome durch Deep Learning detektierbar. Mittels eines Wearables am Handgelenk kann Parkinson diagnostiziert werden. Eine Depression erkennen KI-Algorithmen bereits durch einen Blick auf die Instagram-Posts oder auf Facebook des Users. Schritt für Schritt wird die künstliche Intelligenz Aufgaben übernehmen, sich in die Medizin einflechten. Doch der Wandel wird nicht von einem Tag auf den anderen stattfinden. „Es ist noch genug Zeit und dauert viel länger, als man denkt“, beschwichtigte van Ginneken. Schließlich sind noch viele Hürden zu meistern, bevor KI-Systeme in der Medizin eingesetzt werden. Die Robustheit der Systeme muss etwa noch klinisch geprüft werden, aber auch rechtliche und ethische Fragen sind zu thematisieren. Die Patienten scheinen jedenfalls bereit zu sein für die Revolution in der Medizin. In einer an der Charité von Marc Dewey und Kollegen durchgeführten Studie zeigte sich, dass Patienten die Assistenz durch Computerprogramme mehrheitlich bevorzugen. Insgesamt 84 % der Befragten, denen eine CT-Untersuchung bevorstand, sprachen sich dafür aus.