Gedankenlesen: Forscher schließen von Hirnströmen auf Sprache Logo of esanum https://www.esanum.de

Gedankenlesen: Forscher schließen von Hirnströmen auf Sprache

Kann man allein aus Hirnströmen auf Worte und gar ganze Sätze schließen? Karlsruher Wissenschaftlern ist das zumindest im Ansatz gelungen. Forscher des Karlsruher Instituts für Technologie (KIT) ha

Kann man allein aus Hirnströmen auf Worte und gar ganze Sätze schließen? Karlsruher Wissenschaftlern ist das zumindest im Ansatz gelungen.

Forscher des Karlsruher Instituts für Technologie (KIT) haben direkt aus Gehirnströmen Laute, Wörter und ganze Sätze rekonstruiert. Ausgewertet wurden in einer Studie (DOI: 10.3389/fnins.2015.00217) Daten der Gehirnströme von sieben Epilepsiepatienten in den USA: Ihnen lag während des Sprechens ein Elektrodennetz direkt auf der Großhirnrinde des für ihre Epilepsie-Behandlung ohnehin freigelegten Gehirns. Mit Elektroden, die von außen auf den Kopf angelegt werden und so die elektrische Aktivität des Gehirns messen, sind solche spezifischen Aufzeichnungen noch nicht möglich.

“Zum ersten Mal können wir das Gehirn beim Sprechen beobachten”, sagte Informatik-Professorin Tanja Schultz. Die Forscher können nun praktisch zusehen, wie das Gehirn den Sprechvorgang plant und dann die Muskeln der Artikulationsorgane mittels der Neuronen in der Großhirnrinde aktiviert, bevor die eigentliche Sprache hörbar wird. Sichtbar gemacht wurden die Aktivitäten mit Hilfe von Farben: “Je höher die Aktivität, umso heißer die Farbe”, erklärte Schultz.

Die Patienten waren zuvor gebeten worden, bestimmte Texte zu sprechen – etwa eine Rede des ehemaligen US-Präsidenten John F. Kennedy oder auch einfache Kinderreime. Die Forscher wussten also zunächst, welche Laute wann gesprochen wurden und legten mit Hilfe der dabei gemessenen Hirnströme Datenbanken mit Prototypen von etwa 50 verschiedenen Lauten an.

Auf Basis von Algorithmen gelang es anschließend, allein anhand der Gehirnströme zu verstehen, was gesagt wurde. Dazu werden Laute im Kontext von Wörtern und ganzen Satzphrasen betrachtet. “Wir bekommen damit schöne Ergebnisse, die in der Qualität zwar noch weit von der akustischen Spracherkennung entfernt, aber schon deutlich besser sind, als wenn man rät”, sagte Schultz.

Knackpunkt der vierjährigen Forschung ist bislang die geringe Datenbasis von nur sieben Patienten, von denen jeweils höchsten fünf Minuten Sprache vorliegen. Die Wissenschaftler wollen ihre Analysen daher ausweiten. Neben einem besseren Verständnis der Sprachprozesse könnte der sogenannte Brain-to-Text “ein Baustein sein, um Locked-in-Patienten zukünftig eine sprachliche Kommunikation zu ermöglichen”. Beim Locked-in-Syndrom sind Menschen zwar bei Bewusstsein, aber gelähmt und damit unfähig, sich der Außenwelt verständlich zu machen.

Text: dpa /fw