Unsere Gehirnareale kommunizieren über ein komplexes Netzwerk aus Verbindungspfaden miteinander, wenn wir subtile Veränderungen im Tonfall eines Sprechers wahrnehmen. Diese Erkenntnis hilft beim Verständnis zwischenmenschlicher Kommunikation und ihrer Störungen.
Nicht nur im Deutschen haben wir einen einfachen Satz gefunden, der beschreibt, dass Sprache mehr ist als Worte. „C'est le ton, qui fait la musique“, sagt man in Frankreich, um darauf zu verweisen, dass es nicht allein auf die tatsächlich gesprochenen Worte ankommt, um unser Gegenüber genau verstehen zu können. Der Tonfall verrät uns oft mehr über Intentionen des Sprechers als die reine semantische Bedeutung des Gesagten. „Stellen Sie sich doch einfach mal ein leidenschaftlich, ein zögerlich oder ein ironisch gesprochenes „Ja“ in Antwort auf einen Heiratsantrag vor“, schlägt Daniela Sammer vom Max-Planck-Institut für Kognitions- und Neurowissenschaften vor. „Da haben Sie ein anschauliches Beispiel für die wichtige Funktion des Tonfalls.“ Dieser Tonfall wird mit dem Begriff Prosodie umschrieben und bezieht sich auf die Gesamtheit aller sprachlichen Eigenschaften wie Akzent, Intonation oder auch Sprechpausen.
Mit Hilfe der modernen bildgebenden Analyseverfahren ist es den Wissenschaftlern inzwischen gelungen, die vor allem in der linken Hemisphäre stattfindende Entschlüsselung der Wortlaute gut zu erforschen. Die Ergebnisse zeigen, dass menschliches Verhalten und eben auch Sprache nicht auf einzelne begrenzte Hirnareale reduziert werden kann, sondern vor allem die Verbindungsbahnen zwischen frontalen und temporalen Hirnregionen bei der Sprachverarbeitung entscheidend sind. Solche neuronalen Pfadmodelle der Sprache liefern allerdings keine Anhaltspunkte darüber, wie Prosodie im menschlichen Gehirn verarbeitet wird. Die Probanden hatten zur Aufgabe, anhand der Tonhöhe zwischen einer Frage und einer Aussage zu unterscheiden. Als Vergleich zu dieser Prosodie-Aufgabe sollten sie darüber hinaus den Anfangsbuchstaben zweier ähnlicher Begriffe heraushören. © MPI f. Kognitions- und Neuroswissenschaften/ Sammler Die Wissenschaftler haben daher eine Studie entwickelt und freiwillige Teilnehmer eingeladen, um dem Geheimnis des Prosodie-Netzwerkes auf die Spur zu kommen. Die Englischen Muttersprachler – Männer und Frauen – bearbeiteten zwei verschiedene Aufgabensets, während ihre Gehirnfunktionen in einem Tomografen für funktionelle Magnetresonanztomografie (fMRT) gemessen wurden. Sie sollten entweder entscheiden, ob Worte als Frage oder Aussage über die Kopfhörer eingesprochen wurden (Prosodie-Aufgabe), oder den Anfangsbuchstaben heraushören (Kontrollaufgabe).
Die Ergebnisse zeigen insbesondere in der Prosodie-Aufgabe zwei Gruppen aktiver Hirnareale in der rechten Hemisphäre. Die Aktivierungen im posterioren und anterioren superioren temporalen Sulcus (pSTS und aSTS) können Stationen sein, die den akustischen Tonhöhenverlauf heraushören und in eine wahrgenommene Frage- oder Aussagekontur abstrahieren. Die zweite Gruppe bilden aktive Gebiete im inferioren Frontallappen (IFG) und dem prämotorischen Kortex (PMC) auf der Höhe des Larynxareals, welches die Bewegungen des Kehlkopfes steuert. „Der IFG unterstützt die Bewertung des Tonfalls, während der PMC an dieser Stelle die Vibration der Stimmbänder und somit die Tonhöhe einer Äußerung kontrolliert. Dieser Befund ist sehr interessant, da die Probanden die Stimuli lediglich hörten und nicht selbst sprachen,“ erklärt Sammler. Beim Lösen der Prosodie-Aufgabe sind zwei Gruppen von Gehirngebieten in der rechten Hirnhälfte aktiv (rot). © MPI f. Kognitions- und Neuroswissenschaften/ Sammler Offenbar stellten die Studienteilnehmer die Kehlkopfbewegungen, die der Sprecher für dieses Wort benutzte, intern nach. Gehörtes wurde also vom Gehirn auch in einen Bewegungsbefehl übersetzt. Dies fördert das Verständnis von Sprache, indem der Hörer in sich selbst die Bewegungsprogramme rekonstruiert, die ein Sprecher für die Produktion des Gehörten selbst genutzt hat. „Bislang vermutete man diesen Aspekt nur für die nichtprosodische Sprachverarbeitung in der linken Hemisphäre. Die vorliegenden Daten könnten aber für einen ähnlichen Mechanismus in der Wahrnehmung des Tonfalls sprechen“, erklärt Sammler.
Darüber hinaus bestimmten die Forscher die Faserbündel der weißen Substanz, die dem Informationsaustausch in diesem Netzwerk zugrunde liegen. Dafür berechneten die Forscher die anatomischen Verbindungen zwischen den aktivierten Gehirnregionen aus den Gehirnbildern der Studienteilnehmer. Die Ergebnisse zeigen klare Evidenz für dorsale und ventrale Pfade in der rechten Hemisphäre: Das ventrale Faserbündel folgt dem mittleren longitudinalen Fasciculus, das dorsale Faserbündel folgt dem Verlauf des Fasciculus arcuatus (AF) beziehungsweise des superioren longitudinalen Fasciculus (SLF). Dieser ist in der linken Hemisphäre bereits als Verbindungsbahn zwischen den Sprachzentren bekannt. Dorsaler und ventraler Pfad in der rechten Hemisphäre für die Prosodie-Wahrnehmung. © MPI f. Kognitions- und Neuroswissenschaften/ Sammler Das Gehirn nimmt den Tonfall einer Sprache also entlang mehrerer Pfade wahr. Im Unterschied zu anderen Signalpfaden für Sprache liegen sie vor allem in der rechten Hirnhälfte. „Vermutlich lassen sich diese Pfade flexibel kombinieren und erfüllen so unterschiedliche Aufgaben. Dadurch kann das Gehirn feine Untertöne in der Stimme des Gegenübers erkennen“, fasst Sammler zusammen. Originalpublikation: Dorsal and Ventral Pathways for Prosody Daniela Sammler et al.; Current Biology, doi: 10.1016/j.cub.2015.10.009; 2015