Im Zeitalter der Gehirn-Computer-Schnittstelle gibt es jeden Tag neue Geräte.
Heute bringe ich Ihnen vier Wörter: Gehirntransplantationsmusik.
Konkret geht es darum, zunächst mithilfe von KI zu beobachten, welche Art von Radiowellen ein bestimmtes Musikstück im Gehirn einer Person erzeugt, und dann direkt die Aktivität dieser Radiowelle im Gehirn der Person zu simulieren, die dies erreichen muss Behandlung. Der Zweck bestimmter Arten von Krankheiten.
Lassen Sie uns vor ein paar Jahren auf das Albany Medical Center zurückblicken und sehen, wie die Neurowissenschaftler dort geforscht haben
Im Albany Medical Center erklang langsam ein Musikstück namens „The Other Wall“ und füllte die gesamte Krankenstation.
Patienten, die auf dem Bett liegen und sich auf eine Epilepsieoperation vorbereiten, sind keine Ärzte, sondern hören zu
Neurowissenschaftler versammelten sich, um die auf dem Computerbildschirm angezeigte Elektroenzephalogramm-Aktivität des Patienten zu beobachten
Die Hauptbeobachtung war, dass einige Bereiche des Gehirns etwas Einzigartiges für Musik hörten. Die daraus resultierende Elektrodenaktivität wurde dann verwendet, um zu sehen, ob das aufgezeichnet wurde Die Elektrodenaktivität konnte die Musik reproduzieren, die sie hörten.
In den oben genannten Inhalten umfassen die Elemente der Musik Tonhöhe, Rhythmus, Harmonie und Texte.
Diese Forschung wird seit mehr als zehn Jahren durchgeführt. Neurowissenschaftler der University of California, Berkeley, führten eine detaillierte Analyse der Daten von 29 Epilepsiepatienten durch, die an dem Experiment teilnahmen. Den Wissenschaftlern gelang es, die Musik anhand der Ergebnisse der Elektrodenaktivität im Gehirn der Patienten erfolgreich zu rekonstruieren Das aktuelle Lied, einer der Texte „All in all it was just a Brick in the Wall“, hat einen sehr vollständigen Rhythmus. Obwohl der Text nicht allzu klar ist, sagten die Forscher, dass er entziffert werden kann und nicht chaotisch ist.
Und dieses Lied ist auch der erste Fall, bei dem es Wissenschaftlern gelungen ist, ein Lied durch Aktivität von Gehirnelektroden zu rekonstruieren.
Die Ergebnisse zeigen, dass durch die Aufzeichnung und Deaktivierung von Gehirnwellen einige musikalische Elemente und Silben erfasst werden können.
Diese musikalischen Elemente können im professionellen Sinne als Prosodie bezeichnet werden, einschließlich Rhythmus, Betonung, Kadenz usw. Die Bedeutung dieser Elemente kann nicht allein durch Worte vermittelt werden
Da diese intrakraniellen Elektroenzephalogramme (iEEGs) außerdem nur Aktivitäten aufzeichnen, die in den Oberflächenschichten des Gehirns (d. h. den Teilen, die dem Hörzentrum am nächsten liegen) stattfinden, gibt es diese auch Sie müssen sich keine Sorgen machen, dass jemand auf diese Weise belauscht, welche Lieder Sie gerade hören (lacht) aus der Elektrodenaktivität auf der Oberfläche des Gehirns, was ihnen helfen kann, die Musikalität des Stücks zu reproduzieren.
Offensichtlich ist das viel besser als die roboterhafte, ausdruckslose Version des Vorgängers. Wie oben erwähnt, gibt es einige Dinge, bei denen Worte allein nicht ausreichen. Was wir hören, ist der Ton.
Robert Knight, Neurowissenschaftler am Helen Wills Neuroscience Institute und Professor für Psychologie an der University of California, Berkeley, sagte, dies sei ein bemerkenswertes Ergebnis.
„Für mich liegt einer der Reize der Musik in ihrem Auftakt und dem emotionalen Inhalt, den sie ausdrückt. Und mit den kontinuierlichen Durchbrüchen auf dem Gebiet der Gehirn-Computer-Schnittstelle kann diese Technologie durch die Technologie an Menschen in Not weitergegeben werden.“ Die Implantationsmethode bietet etwas, das nur Musik bieten kann. Zu den Zuhörern gehören möglicherweise Patienten mit ALS oder Patienten mit Epilepsie, kurz gesagt, alle, deren Krankheit ihre Sprachausgabenerven beeinträchtigt nur die Sprache selbst, und die in Worten ausgedrückten Emotionen scheinen im Vergleich zur Musik etwas dürftig zu sein. Ich glaube, dass wir uns von nun an wirklich auf einer Interpretationsreise begeben haben
Mit der Weiterentwicklung der Gehirnwellen-Aufzeichnungstechnologie können wir eines Tages möglicherweise über an der Kopfhaut angebrachte Elektroden aufzeichnen, ohne das Gehirn öffnen zu müssen.
Knight sagte, dass die aktuelle Elektroenzephalographie der Kopfhaut bereits einige Gehirnaktivitäten messen und aufzeichnen kann, beispielsweise das Erkennen eines einzelnen Buchstabens aus einer großen Reihe von Buchstaben. Obwohl es nicht sehr effizient ist, dauert jeder Buchstabe mindestens 20 Sekunden, aber es ist immer noch ein Anfang.
Der Grund für die energische Entwicklung von Kopfhautelektroden liegt darin, dass der derzeitige Kenntnisstand in der nicht-invasiven Technologie unzureichend ist. Mit anderen Worten: Die Kraniotomiemessung kann nicht zu 100 % sicher sein. Die Messgenauigkeit von Kopfhautelektroden, insbesondere für tiefe Hirnmessungen, muss noch verbessert werden. Man kann sagen, dass es einige Erfolge erzielt hat, aber nicht ganz
Können Sie Gedanken lesen?
Für Menschen mit Sprachbehinderung ist die Gehirn-Computer-Schnittstellentechnologie beispielsweise gleichbedeutend mit der Bereitstellung einer „Tastatur“. Durch die Erfassung der Aktivität von Gehirnwellen können sie diese „Tastatur“ verwenden, um zu tippen und auszudrücken, was sie möchten ausdrücken möchte.
Nehmen Sie zum Beispiel Hawking. Das Gerät, mit dem er seine Gehirnwellen erfasste, um die Sprache der Roboterstimme zu erzeugen. Wenn man nur auf diese „Tastatur“ schaut, kann man nicht erkennen, was sie denkt. Die Technologie ermöglicht es nun, Tastaturen zu aktivieren und Sprache auszugeben. Wenn niemand tippen möchte, startet die Tastatur nicht und Sie können nicht wissen, was sie denkt. Gedankenlesen ist also nicht möglich. Experimenteller Inhalt. Sehen Sie sich bitte das Bild unten an, Abbildung A Zeigt die Gesamtwellenformen der im Experiment verwendeten Songs. Unten ist Abbildung A das Hörspektrogramm des Liedes. Der orangefarbene Balken oben zeigt das Vorhandensein von Gesang an. Abbildung B ist eine Röntgenaufnahme der Elektrodenabdeckung eines Patienten. Jeder Punkt stellt eine Elektrode dar.
Bild C zeigt die Elektrodensignale der vier Elektroden in Bild B. Gleichzeitig zeigt die Abbildung auch die durch Gesangsstimulation ausgelöste Hochfrequenzaktivität (HFA), dargestellt durch eine verschiebbare schwarze kurze Linie, mit einer Frequenz zwischen 70 und 150 Hz
Abbildung D zeigt einen kurzen Abschnitt (10 Sekunden) des Songs in A. Vergrößertes Hörspektrogramm und Karte der neuronalen Aktivität der Elektrode während der Wiedergabe. Wir können beobachten, dass die Zeitpunkte der HFA mit der roten Linie auf der rechten Seite jedes markierten Rechtecks im Spektrogramm zusammenfallen
Diese Paarungen stellen die Beispiele dar, die Forscher zum Trainieren und Bewerten von Kodierungsmodellen verwenden.
Zum Beispiel wird die beste Vorhersagegenauigkeit von 80 % bei Verwendung von 43 Elektroden (oder 12,4 %) erreicht (die beste Vorhersagegenauigkeit ist das Ergebnis der Verwendung aller 347 Elektroden).
Der gleiche Zusammenhang wurde bei einzelnen Patienten beobachtet, hier ist, was die Forscher herausgefunden haben
Darüber hinaus beobachteten die Forscher durch Bootstrapping-Analyse einen ähnlichen Zusammenhang zwischen der Dauer des Datensatzes und der Vorhersagegenauigkeit. Der numerische Zusammenhang ist wie gezeigt in der Abbildung unten.
Wenn Sie beispielsweise Daten mit einer Länge von 69 Sekunden (36,1 % der Gesamtlänge) verwenden, können Sie 90 % der besten Leistung erzielen (die beste Leistung bezieht sich auf die Verwendung des gesamten Songs). 190,72 Sekunden lang) Abgeleitete Daten)
In Bezug auf den Modelltyp beträgt die durchschnittliche Dekodierungsgenauigkeit der linearen Dekodierung 0,325, während die durchschnittliche Dekodierungsgenauigkeit der nichtlinearen Dekodierung unter Verwendung eines zweischichtigen, vollständig verbundenen neuronalen Netzwerks 0,429 beträgt.
Insgesamt klingt die lineare Musikliedrekonstruktion (Audio S2) langweilig, mit starken rhythmischen Hinweisen auf das Vorhandensein einiger musikalischer Elemente (bezogen auf Gesangssilben und Leadgitarre), aber möglicherweise auf die Wahrnehmung anderer eingeschränkt.
Die nichtlineare Songrekonstruktion (Audio S3) reproduziert einen erkennbaren Song mit detaillierteren Details im Vergleich zur linearen Rekonstruktion. Die Wahrnehmungsqualität spektraler Elemente wie Tonhöhe und Klangfarbe wird deutlich verbessert und Phonemeigenschaften sind klarer erkennbar. Einige bei der linearen Rekonstruktion vorhandene blinde Erkennungsflecken wurden ebenfalls bis zu einem gewissen Grad verbessert
Das Folgende ist eine Veranschaulichung:
Also verwendeten die Forscher ein nichtlineares Modell, um das Lied durch 61 Elektroden des 29. zu rekonstruieren geduldig .
Die Leistung dieser Modelle ist besser als die lineare Rekonstruktion basierend auf allen Patientenelektroden, aber die Dekodierungsgenauigkeit ist nicht so gut wie die, die mit 347 Elektroden aller Patienten erzielt wird.
In Bezug auf die Wahrnehmung sind diese basieren auf einem einzelnen Patienten. Das Modell lieferte ausreichend hohe spektral-zeitliche Details, damit die Forscher das Lied identifizieren konnten (Audio S4). sammelte neuronale Aktivität aus den Gehirnen von drei weiteren Patienten. Die Anzahl der Elektroden war bei diesen drei Patienten geringer, nämlich 23, 17 bzw. 10, während die Anzahl der Elektroden beim oben genannten 29. Patienten 61 betrug und die Elektrodendichte ebenfalls betrug relativ niedrig. Natürlich wird der Antwortbereich des Songs weiterhin abgedeckt, und auch die Genauigkeit der linearen Dekodierung wird als gut angesehen.
In den rekonstruierten Wellenformen (Audiodateien S5, S6 und S7) fanden die Forscher einen Teil der menschlichen Stimme. Anschließend quantifizierten sie die Erkennbarkeit der entschlüsselten Lieder, indem sie die Spektrogramme der Originallieder mit den entschlüsselten Liedern korrelierten.
Sowohl die lineare Rekonstruktion (Abbildung A unten) als auch die nichtlineare Rekonstruktion (Abbildung B unten) bieten einen höheren Anteil korrekter Erkennungsraten.
Darüber hinaus analysierten die Forscher die STRF-Koeffizienten (spektral-zeitliches rezeptives Feld) aller 347 wichtigen Elektroden, um zu bewerten, wie verschiedene musikalische Elemente in verschiedenen Gehirnbereichen kodiert werden.
Diese Analyse zeigt unterschiedliche spektrale und zeitliche Abstimmungsmuster
Um die Beziehung zwischen Gesangsspektrogrammen und neuronaler Aktivität umfassend zu charakterisieren, führten die Forscher eine unabhängige Komponentenanalyse (ICA) für alle wichtigen STRFs durch.
Die Forscher fanden 3 Komponenten mit unterschiedlichen spektral-zeitlichen Abstimmungsmustern. Die Varianzerklärungsrate jeder Komponente überstieg 5 %, und die Gesamtvarianzerklärungsrate erreichte 52,5 %, wie in der folgenden Abbildung dargestellt.
Der erste Teil (erklärte Varianz 28 %) zeigt eine Ansammlung positiver Koeffizienten, die über einen weiten Frequenzbereich von etwa 500 Hz bis 7000 Hz und ein schmales Zeitfenster von etwa 90 ms verteilt sind, bevor HFA beobachtet wird. Sichtbar innerhalb von
Dieser Augenblick Cluster zeigt die Stimmung des Tonbeginns an. Dieser Teil wird als Anfangsteil bezeichnet und erscheint nur auf den Elektroden auf der Rückseite des bilateralen STG, wie im Bild unten gezeigt
Abschließend sagten die Forscher, dass zukünftige Studien die Abdeckung der Elektroden erweitern könnten. die Eigenschaften und Ziele des Modells ändern oder neue Verhaltensdimensionen hinzufügen
Das obige ist der detaillierte Inhalt vonDurchbruch bei der Schnittstelle zwischen Gehirn und Computer an der UC Berkeley: Verwendung von Gehirnwellen zur Wiedergabe von Musik, um Menschen mit Sprachbehinderungen gute Nachrichten zu überbringen!. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!