
Welchen Song hörst du gerade? Was die Hirnaktivität alles verrät

Forschende können aus der Hirnaktivität ablesen, welchen Song ein Mensch hört. Das hat ein Experiment in den USA ergeben. Zum Test lief ein echter Klassiker.
Aus der Hirnaktivität ablesen, welchen Song ein Mensch hört: Das ist bei einem Experiment in den USA gelungen. Rockmusik könne aus aufgezeichneter Gehirnaktivität rekonstruiert werden, berichtet das Team im Fachjournal PLOS Biology. Das mag zunächst einfach nur amüsant klingen – die Forschenden erhoffen sich aber entscheidende Fortschritte bei Hilfsmitteln für Menschen, die nicht mehr sprechen können.
Das Team um Ludovic Bellier von der University of California in Berkeley hatten den Song „Another Brick in the Wall, Part 1“ der britischen Rockband Pink Floyd von 1979 genutzt. Sie zeichneten über direkt auf das Gehirn aufgebrachte Elektroden die neuronale Aktivität bei 29 Menschen auf, die einem dreiminütigen Ausschnitt des Klassikers lauschten. Es handelte sich um Patienten im Vorfeld einer Epilepsieoperation. Vor solchen Eingriffen wird den Patienten ein Netz von Elektroden direkt auf das Gehirn gesetzt, um herauszufinden, von wo die Krampfanfälle ausgehen und wo operiert werden muss.
Ergebnisse könnten Gehirn-Maschine-Schnittstellen verbessern
Aus den aufgezeichneten Aktivitätsdaten verschiedener Hirnregionen wurde mithilfe spezieller Kodierungsmodelle der ursprüngliche Song rekonstruiert, von dem so – mehr oder weniger – erkennbare Versionen entstanden. Der Rhythmus sei intakt, der Text zwar verworren, aber entzifferbar, so die Forschenden. Frühere Arbeiten hätten gezeigt, dass Computermodelle zur Rekonstruktion von Sprache aus solchen Aktivitätsmustern verwendet werden können. Ein Modell für Musik, das zusätzliche Elemente wie Melodie und Rhythmus sowie klangverarbeitende Hirnregionen umfasst, habe es bisher nicht gegeben.
Die Ergebnisse könnten künftig für bessere Gehirn-Maschine-Schnittstellen genutzt werden. Die heute verwendeten Schnittstellen für Menschen, die nicht sprechen können, könnten zwar Wörter entschlüsseln – die von ihnen reproduzierten Sätze klängen aber stark nach Roboter. Es fehle an Sprachmelodie, Emotionen, den vielen Ausdruck bringenden Details von Sprache.
Noch ist die Kommunikation über maschinelle Schnittstellen mühsam
Nötig seien dafür empfindlichere Elektroden, die ohne Schädelöffnung auf der Kopfhaut befestigt werden könnten. Derzeit lasse sich mit einem EEG der Kopfhaut die Hirnaktivität messen, um einzelne Buchstaben aus einem Strom von Buchstaben zu erkennen. Das dauere aber mindestens 20 Sekunden, was die Kommunikation mühsam mache.
„Die nicht invasiven Techniken sind heute einfach nicht genau genug“, sagt Bellier. „Wir hoffen für die Patienten, dass wir in Zukunft mithilfe von Elektroden, die außen am Schädel angebracht werden, die Aktivität in tieferen Hirnregionen mit einer guten Signalqualität messen können. Aber davon sind wir noch weit entfernt.“
Die Diskussion ist geschlossen.