Was wäre, wenn das, was wir sehen, lesen oder erleben, von KI erfasst und dann als kurze Videoclips wiedergegeben werden könnte? Klingt spannend? Mehr dazu hier.
Mit Hilfe von künstlicher Intelligenz und der Dekodierung von Daten aus der Gehirnaktivität ist ein Forscherteam der Yong Loo Lin School of Medicine der National University of Singapore (NUS Medicine) in der Lage, Videos zu erstellen, die die Bilder widerspiegeln, die den Studienteilnehmern gezeigt wurden. Sie sagen, dass diese Entwicklung/Technologie für die Früherkennung von Gehirnerkrankungen, maßgeschneiderte Behandlungen sowie Geräte und Lernprogramme entscheidend sein könnte.
Die Untersuchung von Gehirnmustern und herauszufinden, wie das Gehirn funktioniert, könnte dazu führen, dass man lernt, wie bestimmte Gedanken mit Sprache und Bewegungen zusammenhängen. So können Lösungen für Menschen gefunden werden, die an Krankheiten leiden, die ihre Bewegungs- oder Kommunikationsfähigkeit einschränken.
Forscher des Zentrums für translationale Magnetresonanzforschung an der Yong Loo Lin School of Medicine der National University of Singapore (NUS Medicine) arbeiten an einem neuartigen Projekt mit dem Titel „Mind-Video“, bei dem ein KI-Modell entwickelt wird, das visualisiert, was der Einzelne sieht – und das die Grenzen der KI in der Forschung sprengt.
Dieses Modell ist in der Lage, Daten aus menschlichen Gehirnen zu scannen und zu lesen und die Informationen in Form von sehr kurzen Videosequenzen zu rekonstruieren. Die Studie rekonstruiert Videos, die den Teilnehmern gezeigt werden, mit Hilfe von Daten der funktionellen Magnetresonanztomographie (fMRI), die aus der Gehirnaktivität Darstellungen erzeugt. Diese Art von Daten bietet einen dynamischen Einblick in die Denkprozesse des Einzelnen und könnte die Art und Weise, wie wir mit dem menschlichen Gehirn interagieren und es interpretieren, revolutionieren.
Den Teilnehmern wurden Videos unterschiedlicher Länge – von zwei Sekunden bis zu einigen Minuten – von sich bewegenden Objekten, Tieren oder Menschen gezeigt, während die Forscher die Scans mittels fMRT durchführten. Nach der Erfassung der Daten wurde ein fortschrittliches KI-Modell, Stable Diffusion, verwendet, um die Gehirnaktivität zu entschlüsseln und die Informationen in rekonstruierte Videos von etwa zwei bis drei Sekunden Länge zu übersetzen, wie sie von den Teilnehmern gesehen wurden.
Das Team erreichte eine beeindruckende Trefferquote von 85 %. Dies ist ein bedeutender Schritt auf dem Weg zu potenziellen Lösungen für die Behandlung neuropsychiatrischer Erkrankungen sowie zur Unterstützung von Menschen mit Erkrankungen, die Bewegung und Sprache erschweren, um besser zu kommunizieren. Dazu gehören Schlaganfall, Hirnverletzungen, Rückenmarksschäden und Krankheiten wie Zerebralparese, ALS und Parkinson.
Für die Patienten bietet sie Hoffnung auf ein besseres, unabhängigeres Leben und wirksame Behandlungen. „Unsere Arbeit kann dazu beitragen, das Verständnis dafür zu vertiefen, wie das Gehirn Informationen in einem noch nie dagewesenen Detailgrad verarbeitet und gleichzeitig den Weg für ein fortschrittlicheres Kommunikationssystem mittels Technologie und Hirnstimulationsstrategien ebnen. Gleichzeitig haben wir vor, die Verallgemeinerbarkeit und Interpretierbarkeit weiterzuentwickeln, um die Grundlage für künftige translationale Arbeiten zu schaffen, einschließlich der Unterstützung von Menschen mit eingeschränkter Sinneswahrnehmung oder der Verbesserung des menschlichen Potenzials“, so Zhou.
Dieser Artikel basiert auf einer Pressemitteilung der Nationalen Universität von Singapur, Yong Loo Lin School of Medicine. Die Originalpublikation haben wir euch hier verlinkt.
Bildquelle: Gaspar Uhas, Unsplash