Neurowissenschaftler haben es geschafft, "Another Brick in the Wall, Part 1" mithilfe von KI zu rekonstruieren, indem sie die elektrische Aktivität des Gehirns entschlüsselten. Das rekonstruierte Pink Floyd-Lied stellt einen Durchbruch dar, der Patienten mit schweren neurologischen Erkrankungen die musikalische Qualität natürlicher Sprache zurückgeben könnte.
Wissenschaftler haben ein klassisches Pink Floyd-Lied aus den aufgezeichneten Gehirnwellen von Patienten rekonstruiert, die während des Hörens des Tracks eine Epilepsie-Operation durchliefen.
Forscher der University of California, Berkeley (USA), nutzten KI-Techniken, um die Gehirnsignale zu entschlüsseln und den Hit von 1979, "Another Brick In The Wall, Part 1", neu zu erstellen.
Das Team betonte, dass dies das erste Mal sei, dass Wissenschaftler ein Lied aus den Aufzeichnungen von Gehirnaktivitäten rekonstruiert haben.
Solche algorithmischen Übersetzungen wurden verwendet, um Sprache aus Gehirnscans zu rekonstruieren, jedoch nicht Musik.
Für die Studie analysierten die Forscher die Gehirnaktivitätsaufzeichnungen von 29 Patienten des Albany Medical Center im Bundesstaat New York von 2009 bis 2015. Als Teil ihrer Epilepsiebehandlung wurden den Patienten Elektroden in das Gehirn implantiert. Dies bot den Neurowissenschaftlern eine seltene Gelegenheit, ihre Gehirnaktivität während des Musikhörens aufzuzeichnen. Insgesamt wurden 2.668 Elektroden verwendet, um die gesamte Gehirnaktivität aufzuzeichnen, und 347 von ihnen bezogen sich speziell auf die Musik.
Die Wissenschaftler sagten, dass der berühmte Satz "All in all it’s just another brick in the wall" im rekonstruierten Lied erkennbar ist und die Rhythmen intakt bleiben.
"Es klingt ein wenig, als würden sie unter Wasser sprechen, aber es ist unser erster Versuch", sagte Robert Knight, Neurologe und Professor für Psychologie am Helen Wills Neuroscience Institute der UC Berkeley, der die Studie zusammen mit dem Postdoktoranden Ludovic Bellier durchführte.
Laut dem Team zeigen die in der Zeitschrift PLOS Biology veröffentlichten Ergebnisse, dass Gehirnsignale so übersetzt werden können, dass sie die musikalischen Elemente der Sprache (Prosodie) erfassen – Muster von Rhythmus, Klang, Betonung und Intonation – die eine Bedeutung vermitteln, die Worte allein nicht ausdrücken können.
Die Wissenschaftler glauben, dass ihre Arbeit weiterhin dazu beitragen kann, zu verstehen, wie das Gehirn auf Musik reagiert, und den Weg für neue Prothesengeräte ebnen könnte, die die Wahrnehmung von Rhythmus und Melodie der Sprache verbessern können. Diese Studie stellt auch einen Durchbruch für Neurowissenschaftler und Neurotechnologen dar, die Menschen mit schweren neurologischen Schäden helfen möchten - wie zum Beispiel die neurodegenerative Erkrankung, mit der Stephen Hawking diagnostiziert wurde. Es könnte Menschen helfen, die einen Schlaganfall oder eine Lähmung erlitten haben oder andere verbale Kommunikationsprobleme haben, sich auf eine Weise zu verständigen, die natürlicher klingt.
"Es ist ein wunderbares Ergebnis", sagte Knight.
"Eines der Dinge, die Musik für mich ausmachen, ist ihre Prosodie und emotionale Tiefe. Mit dem Fortschritt im Bereich der Gehirn-Maschine-Schnittstellen bietet dies eine Möglichkeit, zukünftigen Gehirnimplantaten für Menschen, die sie benötigen, Musikalität zu verleihen. Es ermöglicht das Entschlüsseln nicht nur des linguistischen Inhalts, sondern auch einiger prosodischer Inhalte der Sprache. Ich denke, das haben wir wirklich begonnen zu entschlüsseln."