Wer im Glashaus denkt …
Ein experimentelles Brain-Computer-Interface (BCI, Hirn-Computer-Schnittstelle) ist nun in der Lage, innere Sprache – also rein gedanklich vorgestellte Sätze – in Echtzeit auszuwerten. Entwickelt wurde die Anwendung von einem Forscherteam der Stanford University. In einer Studie mit vier Patienten mit Amyotropher Lateralsklerose (ALS) oder nach Hirnstamminfarkt konnte das System vorgestellte Wörter aus einem Vokabular von bis zu 125.000 Begriffen mit bis zu 74 Prozent Genauigkeit in Echtzeit entschlüsseln. Als Grundlage für die Erfassung dienten implantierte Mikroelektroden im motorischen Kortex, deren Aktivitätsmuster dann von Künstlicher Intelligenz analysiert und decodiert werden. Ein zweischneidiges SchwertDie Forscher um Kunz zeigten erstmals, dass sich rein gedanklich formulierte Sprache ähnlich im Gehirn abbildet wie gesprochene Worte – nur schwächer. Damit eröffnet sich für Menschen mit schweren Sprach- und Bewegungsstörungen eine neue Möglichkeit, einfacher und vor allem natürlicher zu kommunizieren. Allerdings gibt es auch hier Schattenseiten: Das System erfasste auch unbewusste innere Sprache wie etwa Zahlwörter beim stillen Zählen. Genau darin liegt eine große Herausforderung: Das unbeabsichtigte „Mitlesen“ von Gedanken wirft Fragen zum Schutz der Privatsphäre auf. Zu diesem Zweck haben die Forscher einen Sicherheitsmechanismus integriert: Die Decodierung wird erst aktiv, wenn ein innerlich gesprochenes Passwort erkannt wird. Im Versuch erkannte das System das Passwort mit einer Trefferquote von über 98 Prozent. |