Informatikern der Uni Bremen ist es gelungen, eine Neurosprachprothese zu entwickeln. Damit kann vorgestellte Sprache hörbar gemacht werden. Ein großer Fortschritt für Patienten, deren Sprechvermögen beeinträchtigt ist.
Seit mehreren Jahren arbeiten Wissenschaftler an einer Neurosprachprothese, um sprachbezogene neuronale Prozesse im Gehirn direkt in hörbare Sprache umzusetzen. Dieses Ziel ist nun erreicht worden: „Wir haben es geschafft, dass unsere Versuchspersonen sich reden hören, obwohl sie sich das Sprechen nur vorstellen“, sagte Prof. Tanja Schultz der Uni Bremen.
„Die Gehirnstromsignale von freiwilligen Probanden, die sich vorstellen, zu sprechen, werden durch unsere Neurosprachprothese direkt in eine hörbare Ausgabe überführt – und zwar in Echtzeit ohne wahrnehmbare Verzögerung.“
Die Neurosprachprothese basiert auf einem Closed-Loop-System, das Technologien aus der modernen Sprachsynthese mit Gehirn-Computer-Schnittstellen verbindet. Als Eingabe erhält es die neuronalen Signale der Nutzer, die sich vorstellen, zu sprechen. Es transformiert diese mittels maschineller Lernverfahren praktisch zeitgleich in Sprache und gibt sie hörbar als Rückmeldung an die Sprecher aus. „Dadurch schließt sich für diese der Kreis vom Vorstellen des Sprechens und dem Hören ihrer Sprache“, so Angrick.
Das Projekt basiert auf einer Studie mit einer Epilepsiepatientin, der zu medizinischen Untersuchungen Tiefenelektroden implantiert wurden. Im ersten Schritt las die Patientin Texte vor, aus denen das Closed-Loop-System mittels maschineller Lernverfahren die Korrespondenz zwischen Sprache und neuronaler Aktivität lernte. „Im zweiten Schritt wurde dieser Lernvorgang mit geflüsterter und mit vorgestellter Sprache wiederholt“, erläutert Angrick. „Dabei erzeugte das Closed-Loop-System synthetisierte Sprache. Obwohl das System die Korrespondenzen ausschließlich auf hörbarer Sprache gelernt hatte, wird auch bei geflüsterter und bei vorgestellter Sprache eine hörbare Ausgabe erzeugt.“
Dies lasse den Schluss zu, dass die zugrundeliegenden Sprachprozesse im Gehirn für hörbar produzierte Sprache vergleichbar sind mit denen für geflüsterte und vorgestellte Sprache.
„Sprachneuroprothetik zielt darauf ab, Personen, die aufgrund körperlicher oder neurologischer Beeinträchtigungen nicht sprechen können, einen natürlichen Kommunikationskanal zu bieten“, erläutert Schultz. „Die Echtzeitsynthese akustischer Sprache direkt aus gemessener neuronaler Aktivität könnte natürliche Gespräche ermöglichen und die Lebensqualität von Menschen deutlich verbessern, deren Kommunikationsmöglichkeiten stark eingeschränkt sind.“
Dieser Text basiert auf einer Pressemitteilung der Universität Bremen. Hier findet ihr die Originalpublikation.
Bildquelle: Bret Kavanaugh, unplash