Anwendungsbeispiele für künstliche Intelligenz gibt es en masse, doch was kann sie wirklich leisten? Das fragen sich auch viele Ärzte. Lauterbach und Reinhardt warnen heute: Deutschland läuft die Zeit davon.
Deutschland wird immer älter – und damit auch seine Ärzteschaft und Pflegepersonal. Die Folge: Mehr Menschen, die versorgt werden müssen statt selbst zu versorgen. Abhilfe schaffen soll, neben der Aufstockung der Studienplätze um jährlich 5.000, eine gezieltere Nutzbarmachung der Künstlichen Intelligenz. Neben der Nothilfe durch die Algorithmen erhofft sich Politik und Ärzteschaft jedoch auch qualitative Besserung in der Versorgung.
Wie ernst das Thema von den Akteuren des Gesundheitswesens genommen wird, zeigt nun unter anderem die Auftaktveranstaltung einer neue Veranstaltungsreihe der Bundesärztekammer unter dem Titel „Von ärztlicher Kunst mit künstlicher Intelligenz“. Dass der Themen-Opener für die Ärzteschaft geprägt war von Fragen der konkreten Anwendung sowie ethischen Aspekten, gibt den inneren Konflikt der Beteiligten anschaulich wieder. Man will ja, man macht auch, hat aber noch letzte Bedenken. Ärztepräsident Klaus Reinhardt bringt es eingangs auf den Punkt: „KI hat das Potenzial zu entlasten, es wird die Forschung beschleunigen und könnte zu neuer Aufgabenteilung führen, die Zeit für Patientenkontakte frei macht. Doch wir wissen nicht, inwieweit neue, globale IT-Akteure wie Amazon oder Google in das Versorgungsgeschehen eingreifen könnten. Wir wissen nicht was passieren wird, aber wir gehen davon aus, dass es das tut.“
Dass auch die Politik die Bedeutung des Themas erkannt hat, macht der prominente Besuch des Bundesgesundheitsministers offensichtlich. Für ihn stand fest: „Wir werden eine bessere Medizin erwarten können und auch erreichen – allerdings nur mit dem richtigen Mindset. Diese bringen Sie bereits mit, nun müssen wir den Vorteil aus dem späten Start der Digitalisierung auf dem Gebiet ziehen“, gibt sich Karl Lauterbach versöhnlich und meint damit, dass man im Ländervergleich zwar Spätstarter sei, doch nun auch konkrete Vorteil gegenüber den USA hat.
„Das Datennetz in den USA ist völlig zerklüftet, das umgehen wir in Deutschland nun durch das Gesundheitsdatennutzungsgesetz. Die Verbindung zwischen der ePa und den Daten der Krankenkassen und anderen Registern können im Bedarfsfall im Forschungsdatenzentrum unter Berücksichtigung einer allgemeinen Sicherheitsstruktur genutzt werden“, so Lauterbach. Das bringe nicht nur Vorteile in der Forschung, sondern auch in der täglichen Praxis. Dass der Minister heute derweil keinen Moment ausließ, um die Wogen zwischen Politik und Ärzteschaft zu glätten, machten die Erklärungsversuche für seine letzten Maßnahmen (Entwurf Vorbeugemedizingesetz, Abschaffung der Neupatientenregelung, Frage der ärztlichen Budgetierung) deutlich. Sein Bonbon an die Hausärzte: Die Entbudgetierung ist geplant.
Dass Lauterbach selbst derweil in Sachen Technik und Digitalisierung gut aufgestellt ist, zeigten seine Beispiele für die Chancen der Künstlichen Intelligenz in der Medizin. So seien insbesondere die Formen des Deep Learning einerseits sowie der generativen KI andererseits von großem Interesse. Während ersteres insbesondere über neuronale Netze wie Alphafold und dessen Möglichkeit zur Vorhersage einer Proteinstruktur auf Grundlage seiner Aminosäurensequenz einen Siegeszug erfuhr, birgt letzteres die Möglichkeiten aus Datensätzen heraus neue Inhalte zu generieren und somit Überweisungen, Medikationen oder diagnostische Einschätzungen zu geben. Übe die Veröffentlichung der „Nationalen Strategie: Künstliche Intelligenz“ soll nun der Weg zum Spitzenstandort formuliert und der Transfer von Technik in die Gesundheitsversorgung gewährleistet werden.
In der Ärzteschaft selbst ist man näher an der konkreten Praxis. Prof. Ulrike Attenberger, Mitglied im Wissenschaftlichen Beirat der Bundesärztekammer, Direktorin der Klinik für Diagnostische und Interventionelle Radiologie am Universitätsklinikum Bonn, stellte fest, dass die Methodiken für Analysen sich bereits jetzt anpassen. Aus eigener Erfahrung kann sie vor allem für die Nutzung von KI für Therapiesimulationen in der onkologischen Praxis sprechen – auch beschleunigen virtuelle Tumorboards den Austausch. „Ein anderer Punkt ist die Robotik. Es gibt Beispiele davon, dass Herzkatheteruntersuchungen aus 20 km Entfernung gemacht wurden“, erklärt Attenberger.
Prof. Eva Winkler, Leiterin der Sektion für Translationale Medizinethik an der Universität Heidelberg und geschäftsführende Direktorin am Nationalen Centrum für Tumorerkrankungen (NCT), Heidelberg, gibt einen Überblick über den Status Quo des Einsatzes von KI: 70 % der Anwendungen finden derzeit in der Diagnostik statt. Retina-Scans, Knochendichte-Messungen oder die Früherkennung von schwarzem Hautkrebs sind hier die Schwerpunkte. 30 % hingegen ist therapeutische Hilfe in Form von Behandlungsoptionen. Insbesondere wird hier eine Vorbefundung und Priorisierung genutzt.“
Doch bei allen Vorträgen von Nutzen, Chancen und Qualitätssteigerung schwingt in der Runde auch das „Aber“ mit. Dieses ist dabei nicht nur ein technisches gegenüber möglichen Datenschutzkonzepten und der Technik selbst. Ebenso klingen Unsicherheiten in Sachen Ethik und Verantwortlichkeit mit. Prof. Julian Nida-Rümelin von der Ludwig-Maximilians-Universität München stellt dazu einen philosophischen Aspekt in den Mittelpunkt und macht auf eine besondere Vertrauenskultur zwischen Arzt und Patient aufmerksam. „Vertrauen ist etwas interpersonales. KI sollte man immer lediglich als Tool, als Instrument verstehen und nicht als weltweise Entität oder Intelligenz. KI kann letztlich vieles verbessern, aber es ist und bleibt eine gigantische beeindruckend perfekte Plagiatsmaschine.“
In Sachen Ethik macht Attenberger zudem die Grundsatzfrage auf, wer Schuld trüge, wenn Arzt und KI unterschiedliche Diagnosen stellen und es schließlich aufgrund ärztlicher Entscheidung eine Fehlbehandlung zu Mortalität kommt. „Dies ist ein Gebiet, in dem wir noch viele Fragen zu klären haben. Es ist aber keine Alternative, den Patienten in die Frage einzubeziehen und ihm offenzuhalten, ob er den ärztlichen oder den KI-Weg der Behandlung möchte. Patienten haben vielfach nicht das Verständnis für KI und sind insbesondere in entscheidenden Fragen stark überfordert.“
Doch nicht nur Patienten haben mit Überforderung zu kämpfen. Den deutlichsten Ausdruck der Unsicherheit im Umgang mit KI offenbarte eine Auswertung, auf die Prof. Winkler aufmerksam machte. Ergebnis darin: Wenn eine korrekte ärztliche Diagnose mit einer korrekten KI-Prognose übereinkommen, profitieren unerfahrene Ärzte von der Bestätigung und werden in der Behandlung bestärkt. Erhalten unerfahrene Ärzte jedoch eine falsche Einschätzung, halbiert sich die Wahrscheinlichkeit einer eigentlich korrekten Einschätzung und Behandlung. Und auch erfahrene Ärzte brüten über das, was ihnen die KI fälschlicherweise ausspuckt. Von ehemals knapp 90 % einer korrekten Behandlung sind es nach KI-Verunsicherung nur noch knapp 70%.
Um eben diese Risiken aus technischem Versagen, menschlicher Verunsicherung und ethischen Konsequenzen noch einmal zu minimieren, gibt es nun verschiedene Ansätze, die künftig im Mittelpunkt der Forschung von medizinischen KI-Anwendungen stehen sollen. Einen ersten Vorschlag lieferte Winkler, die auf ein System aufmerksam macht, das den Algorithmus dazu bringt, seine Entscheidungen und Ergebnisse zu begründen. Problem ist hier jedoch noch: KI kann bisher keine Angabe zu den Gründen machen, sondern allenfalls eine Heat Map erstellen – sprich: Nur die Pfade wiedergeben, die es verwendet hat.
Da die Letztverantwortung schließlich – ob mit oder ohne Nutzung von technischen Hilfsmitteln jedweder Art – beim behandelnden Arzt liegt, müsse dieser im Umgang mit KI geschult werden. Außerdem müsste nach Annahme einer KI-Diagnose oder eines Therapieplans eine ethische Absicherung in Form eines speziellen Zweitmeinungswesens gegenüber KI-Urteilen eingeführt werden.
Bildquelle: Soheb Zaidi, Unsplash