Es klingt nach Science-Fiction: Wissenschaftlern ist es gelungen, aus Hirnscans ganze Sätze zu rekonstruieren. Können sie also Gedanken lesen?
Ein Mann macht es sich auf einer Liege bequem, auf der er gleich in ein MRT-Gerät geschoben wird. Er hat geräuschunterdrückende Kopfhörer auf, damit ihn das Dröhnen der Maschine nicht stört. Dann geht es los: Das Gerät beginnt mit der zweistündigen Messung, während der Mann konzentriert einem Podcast lauscht. Bewegungen – selbst kleinste Zuckungen eines Fingers oder Zehs – sind verboten. Denn das kann die wertvollen Daten, die das MRT ausspuckt, beeinflussen.
Aber wozu ist das Ganze gut? Der Mann ist kein Patient, sondern Teil einer kleinen Studie, deren Forschungsfrage eher nach Science Fiction als nach medizinischer Forschung klingt: Lassen sich Wörter und ganze Sätze allein aus Hirnaktivität rekonstruieren? Dass das möglich ist, zeigt jetzt ein Forscherteam aus Texas mit ihrem „Sprachdecoder“, den sie in Nature Neuroscience vorgestellt haben.
Und so funktioniert’s: Der eingangs erwähnte Studienteilnehmer verbrachte über mehrere Sitzungen verteilt insgesamt 16 Stunden damit, sich im MRT einen Podcast anzuhören – zwei weitere Probanden taten das selbe. Mithilfe der nicht-invasiven funktionellen Magnetresonanztomographie (fMRT) zeichneten die Forscher während der Sessions die Gehirnaktivität der Probanden auf – die feuernden Neuronen verbrauchen Sauerstoff, was sich mittels fMRT nachverfolgen lässt. Anschließend speisten sie ihren Sprachdecoder mit diesen Hirnaktivitätsmustern und ließen ihn damit traninieren. Der Decoder basiert übrigens auf der künstlichen neuronalen Netzwerktechnologie GPT-1, der auch ChatGPT zugrunde liegt.
Um ihren Decoder zu testen, ließen die Forscher die Teilnehmer erneut einen Podcast hören, der aber nicht Teil des Trainingsdatensatzes war. Wie sich zeigte, konnte der Sprachdecoder aus den fMRT-Daten tatsächlich Wortfolgen erstellen, die den Inhalt der neuen Geschichten weitgehend korrekt wiedergaben. Es erkannte sogar einige exakte Wörter und Sätze. Die Wissenschaftler rekonstruierten also aus den Daten mithilfe des Decoders Sprache, die mit hoher Wahrscheinlichkeit das ausdrückte, was die Testpersonen gehört hatten. Ihr Decoder konnte sogar den Inhalt einer imaginären Geschichte eines Teilnehmers oder eines Stummfilms wiedergeben.
Die Idee, Gedanken mittels Hirnsscans auszulesen, ist nicht neu. Bisher beschränkten sich Studien allerdings auf einzelne Wörter oder nutzten invasive Techniken, bei der ein Hirnimplantat mikrosekundenschnelle Änderungen in der Gehirnaktivität aufzeichnen kann. Im Unterschied dazu sind nichtinvasive Methoden, wie sie die Forscher hier erstmals dafür nutzten, viel träger – laut der Autoren unterliegt ein einzelnes fMRT-Bild dem Einfluss von 20 gesprochenen Wörtern.
Dieses Problem lösten die Forscher mit der Nutzung einer künstlichen Intelligenz. Prof. Rainer Goebel, Leiter der Abteilung für kognitive Neurowissenschaften von der Maastricht University, drückt es so aus: „Eine zentrale Idee der Arbeit war es, ein KI-Sprachmodell zu benutzen, um die Anzahl der möglichen Phrasen, die mit einem Hirnaktivitätsmuster im Einklang stehen, stark zu reduzieren.“ Das sei ein bisschen wie ChatGPT, meint Goebel, denn auf der Basis der vergangenen Wörter und Sätzen schlage der Decoder das Wort oder die Phrase vor, die am besten zum semantischen Kontext passe. „Man könnte vielleicht auch sagen, dass die Verwendung eines KI-Sprachmodells die Schwäche der fMRT – die geringe zeitliche Auflösung – ganz gut ,kaschieren‘ kann. Das ist ein bisschen so, als wenn man in Word falsch geschriebene Wörter auf der Basis einer Wortdatenbank korrigieren lässt.“
Wohl in weiser Voraussicht, dass ihre Veröffentlichung ethische Fragen in den Raum werfen wird, diskutieren die Autoren der Studie auch mögliche Gefahren – wie das heimliche Auslesen von Gedanken und die Wahrung von Mental Privacy. Dazu haben sie untersucht, ob der Decoder, der auf die Hirnscans von Person A trainiert wurde, auch bei Person B funktioniert. Das (ernüchternde – oder erfreuliche?) Ergebnis: Das klappt nicht. Dazu Goebel: „Da Gehirne zwar grob ähnlich aufgebaut sind, aber auf der Ebene einer Auflösung von ein paar Millimetern doch recht verschieden sind, muss die Relation zwischen Sprachsegmenten und Hirnaktivitätsmustern individuell für jeden Probanden erstellt werden und das braucht viele Stunden Training.“
Das habe aber den Vorteil, dass man nicht ,ungewollt‘ Gedanken auslesen kann, meint der Neurowissenschaftler. Die Person müsste sich erstmal bereit erklären, an einer langen Serie unbequemer Experimente teilzunehmen und dazu bereit sein, mental aktiv mitzuarbeiten – und selbst wenn all das gegeben wäre, und die Person dann doch in Gedanken eine andere Aufgabe macht, würde das „ungewollte Abhören“ dennoch nicht funktionieren. „Anwendungen des nicht-invasiven Sprachdecoders benötigen die volle Bereitschaft an einer langen Serie unbequemer Experimente teilzunehmen, mit der Bereitschaft auch mental aktiv mitzuarbeiten. Es ist also quasi unmöglich, dass sich jemand heimlich mit dem nicht-invasiven Sprachdecoder Zutritt in die Gedankenwelt einer Person verschaffen kann“, so Goebel.
Die Wissenschaftler verfolgen natürlich ein anderes Ziel. Sie stellen sich vor, dass sie ihren Decoder in Zukunft für medizinische Zwecke nutzen könnten. So könnten zum Beispiel Locked-In-Patienten, die aufgrund vollständiger Lähmung nicht mehr kommunizieren können, von der Methode profitieren. Das ist allerdings noch Zukunftsmusik.
Bildquelle: Joshua Rawson-Harris, unsplash