Home | Extra | Wie das Gehirn audiovisuelle Signale verarbeitet: Forscher sammeln Erkenntnisse zur Verbesserung von Cochlea-Implantaten und Hörgeräten
Extra

Wie das Gehirn audiovisuelle Signale verarbeitet: Forscher sammeln Erkenntnisse zur Verbesserung von Cochlea-Implantaten und Hörgeräten

Ist die Umgebung laut, nutzen viele Menschen intuitiv visuelle Hinweise wie Lippenbewegungen und Gesten, um das Gesagte besser zu verstehen. Wie genau das Gehirn jedoch diese visuellen Signale mit den auditiven Signalen kombiniert, ist ein Rätsel der Neurowissenschaft, welches aktuell intensiv untersucht wird. Es werden Erkenntnisse gesammelt, die auch zur Weiterentwicklung von Cochlea-Implantaten und Hörgeräten führen könnten.

Wie das Gehirn audiovisuelle Signale verarbeitet Forscher sammeln Erkenntnisse zur Verbesserung von Cochlea-Implantaten und Hörgeräten

Die Synchronisation von visuellen und auditiven Reizen

Eine spannende Frage der Forschung ist, wie das Gehirn visuelle und auditive Informationen synchronisiert. Die visuelle Verarbeitung erfolgt im hinteren Bereich des Gehirns, im sogenannten visuellen Kortex, während der auditive Kortex in den Schläfenlappen sitzt. „Wie diese Informationen zusammengeführt werden, ist noch weitgehend unbekannt“, erklärt Edmund Lalor, Professor für biomedizinische Technik und Neurowissenschaften an der Universität Rochester. Sein Forschungsteam untersucht genau diesen Mechanismus – und erweitert dabei die bisherigen Ansätze der Neurowissenschaft.

Multisensorische Sprache in natürlichen Kontexten

Frühere Studien haben bereits gezeigt, wie das Gehirn auf einfache auditive Reize wie Klicks oder Silben reagiert. Lalor und sein Team gingen einen Schritt weiter und untersuchten, wie die Form von Artikulationsorganen wie Lippen und Zunge dabei hilft, ähnliche Laute – etwa „F“ und „S“ – zu unterscheiden. Doch nun richtet sich der Fokus auf komplexere und natürlichere Sprachsituationen. Ziel ist es, herauszufinden, wie das Gehirn in realistischen, multisensorischen Kontexten Sprache versteht. Dank eines Zuschusses der US-amerikanischen National Institutes of Health (NIH) in Höhe von 2,3 Millionen Dollar wird Lalor in den kommenden fünf Jahren diese Fragen noch intensiver erforschen.

Cochlea-Implantate als Schlüssel zu neuen Erkenntnissen

Die Studie wird die Gehirnaktivität von 250 Teilnehmer mit Cochlea-Implantaten messen, während diese audiovisuelle Sprache wahrnehmen. Dabei kommen EEG-Kappen zum Einsatz, die elektrische Signale des Gehirns aufzeichnen. Lalor will herausfinden, wie das Alter bei der Implantation die Verarbeitung visueller Sprachhinweise beeinflusst. „Wenn jemand ein Implantat im Alter von einem Jahr erhält, könnte das auditive System trotz eines frühen Hörverlusts ähnlich wie bei einer hörenden Person funktionieren“, erklärt Lalor. „Wird das Implantat jedoch erst im Alter von zwölf Jahren eingesetzt, fehlen wichtige Entwicklungsphasen des Gehörs. Wir vermuten, dass diese Personen visuelle Informationen stärker nutzen, um fehlende auditive Hinweise zu ergänzen.“

Diese Hypothese ist nicht nur für die Grundlagenforschung bedeutsam, sondern auch für die Weiterentwicklung von Hörtechnologien. Wenn sich zeigt, dass visuelle Hinweise bei bestimmten Gruppen essenzieller sind, könnten Hörimplantate zukünftig besser darauf abgestimmt werden.

Herausforderungen der EEG-Messung

Die Messung der EEG-Signale bei Trägern von Cochlea-Implantaten bringt allerdings technische Schwierigkeiten mit sich. Da die Implantate ebenfalls elektrische Signale erzeugen, überlagern diese die EEG-Daten. „Das ist eine große Herausforderung, aber wir haben hier in Rochester hervorragende Studierende und Ingenieure, die mit Signalverarbeitung und Modellierung innovative Lösungen entwickeln können“, betont Lalor.

Perspektiven für neue Hörtechnologien

Die Zusammenarbeit mit dem Co-Projektleiter Matthew Dye von der Rochester Institute of Technology stärkt den interdisziplinären Ansatz der Studie. Dye, Experte für kognitive Wissenschaften und Neurowissenschaften, ergänzt das Projekt mit seiner Expertise in sensorischen und kognitiven Prozessen. Gemeinsam hoffen die Forscher, die Grundlagen der multisensorischen Sprachverarbeitung zu entschlüsseln und damit neue Standards für Hörhilfen zu setzen.