Maison > Périphériques technologiques > IA > le corps du texte

Meta : Pas besoin d'intubation ! L'IA peut savoir ce que vous pensez en regardant votre électroencéphalogramme

王林
Libérer: 2023-04-09 14:41:03
avant
1356 Les gens l'ont consulté

Chaque année, plus de 69 millions de personnes dans le monde souffrent de traumatismes crâniens, dont beaucoup sont incapables de communiquer par la parole, la frappe au clavier ou les gestes. Si les chercheurs développaient une technologie capable de décoder le langage directement à partir de l’activité cérébrale de manière non invasive, la vie de ces personnes s’en trouverait grandement améliorée. Maintenant, Meta a mené une nouvelle étude pour résoudre ce problème.

Tout à l'heure, le blog officiel Meta AI a publié un article présentant une nouvelle technologie qui peut utiliser l'IA pour décoder directement la parole à partir de l'activité cérébrale.

Meta : Pas besoin dintubation ! LIA peut savoir ce que vous pensez en regardant votre électroencéphalogramme

À partir d'une période de 3 secondes d'activité cérébrale, cette IA est capable de décoder les fragments de parole correspondants à partir d'un vocabulaire de 793 mots que les gens utilisent quotidiennement, avec une précision allant jusqu'à 73%.

Décoder la parole à partir de l'activité cérébrale est un objectif de longue date pour les neuroscientifiques et les cliniciens, mais la plupart des progrès reposent sur des techniques d'enregistrement cérébral invasives telles que l'électroencéphalographie stéréotaxique et l'électrocorticographie.

Ces appareils peuvent fournir des signaux plus clairs que les méthodes non invasives, mais nécessitent une intervention neurochirurgicale.

Bien que les résultats de ces travaux démontrent qu'il est possible de décoder la parole à partir d'enregistrements d'activité cérébrale, l'utilisation de méthodes non invasives pour décoder la parole fournirait une solution plus sûre et plus évolutive qui pourrait, à terme, permettre à un plus grand nombre de personnes d'en bénéficier.

Cependant, cela est très difficile car les enregistrements non invasifs sont notoirement bruyants et varient selon les sessions d'enregistrement et les individus pour diverses raisons, notamment les différences dans le cerveau et l'emplacement des capteurs de chaque personne. Il peut y avoir des différences significatives. Meta relève ces défis en créant un modèle d'apprentissage profond entraîné par l'apprentissage contrastif, puis en l'utilisant pour maximiser l'alignement des enregistrements cérébraux non invasifs et de la parole.

Meta : Pas besoin dintubation ! LIA peut savoir ce que vous pensez en regardant votre électroencéphalogramme

À cette fin, Meta a utilisé wave2vec 2.0, un modèle d'apprentissage auto-supervisé open source développé par l'équipe FAIR en 2020, pour identifier la représentation complexe de la parole dans le cerveau de volontaires écoutant des livres audio. Meta se concentre sur deux technologies non invasives : l'électroencéphalographie et la magnétoencéphalographie (EEG et MEG en abrégé), qui mesurent respectivement les fluctuations des champs électriques et magnétiques provoquées par l'activité neuronale.

En pratique, ces deux systèmes peuvent prendre environ 1 000 instantanés de l'activité cérébrale macroscopique par seconde à l'aide de centaines de capteurs. Meta exploite quatre ensembles de données EEG et MEG open source provenant d'établissements universitaires, exploitant plus de 150 heures d'enregistrements de 169 volontaires en bonne santé écoutant des livres audio et des phrases isolées en anglais et en néerlandais.

Meta alimente ensuite ces enregistrements EEG et MEG dans un modèle de « cerveau » constitué d'un réseau convolutif profond standard avec des connexions résiduelles.

On sait que les enregistrements EEG et MEG varient considérablement d'un individu à l'autre en raison de l'anatomie individuelle du cerveau, des différences d'emplacement et de synchronisation de la fonction neuronale dans les régions du cerveau et de la position des capteurs pendant l'enregistrement.

En pratique, cela signifie que l'analyse des données cérébrales nécessite souvent un pipeline d'ingénierie complexe pour réajuster les signaux cérébraux sur un cerveau modèle. Dans des études antérieures, les décodeurs cérébraux ont été entraînés sur un petit nombre d'enregistrements pour prédire un ensemble limité de caractéristiques de la parole, telles que des catégories de parties du discours ou des mots dans un vocabulaire restreint.

Pour faciliter la recherche, Meta a conçu une nouvelle couche d'intégration de sujets, formée de bout en bout pour organiser tous les enregistrements cérébraux dans un espace commun.

Meta : Pas besoin dintubation ! LIA peut savoir ce que vous pensez en regardant votre électroencéphalogramme

Pour décoder la parole à partir de signaux cérébraux non invasifs, Meta a formé un modèle avec un apprentissage contrastif pour calibrer la parole et son activité cérébrale correspondante. Enfin, l'architecture de Meta a appris à convertir la sortie du modèle cérébral en correspondance avec des représentations profondes de la parole. présenté aux participants.

Dans les travaux précédents de Meta, nous avons utilisé wav2vec 2.0 et montré que cet algorithme vocal apprend automatiquement à générer des représentations vocales cohérentes avec le cerveau.

L'émergence de représentations de la parole « de type cérébral » dans wav2vec 2.0 a fait un choix naturel pour les chercheurs de Meta de construire leur propre décodeur, car cela aide les chercheurs de Meta à comprendre quelles représentations doivent être extraites des signaux cérébraux.

Meta : Pas besoin dintubation ! LIA peut savoir ce que vous pensez en regardant votre électroencéphalogramme

Meta a récemment démontré l'activation de wav2vec 2.0 (à gauche) cartographié sur le cerveau (à droite) en réponse au même discours. Les représentations dans la première couche (cool) de l'algorithme correspondent au cortex auditif précoce, tandis que les couches les plus profondes correspondent aux zones cérébrales de niveau supérieur (telles que le cortex préfrontal et pariétal)

Après l'entraînement, le système de Meta effectue ce qu'on appelle le zéro -classification des plans : à partir d'un extrait d'activité cérébrale, il peut déterminer, à partir d'un grand nombre de nouveaux extraits audio, celui que la personne a réellement entendu.

L'algorithme déduit les mots que la personne est la plus susceptible d'entendre. Il s’agit d’une étape passionnante car elle montre que l’intelligence artificielle peut apprendre avec succès à décoder les enregistrements non invasifs bruyants et variables de l’activité cérébrale lors de la perception de la parole.

La prochaine étape consiste à voir si les chercheurs peuvent étendre ce modèle pour décoder la parole directement à partir de l'activité cérébrale sans avoir besoin d'un pool de clips audio, c'est-à-dire évoluer vers un décodeur vocal sûr et polyvalent. L'analyse des chercheurs montre en outre que plusieurs composants de notre algorithme, notamment l'utilisation de wav2vec 2.0 et des couches thématiques, sont bénéfiques pour les performances de décodage.

De plus, l'algorithme de Meta s'améliore avec le nombre d'enregistrements EEG et MEG. Concrètement, cela signifie que les méthodes des chercheurs Meta bénéficient de l’extraction de grandes quantités de données hétérogènes et pourraient en principe contribuer à améliorer le décodage de petits ensembles de données.

C'est important car dans de nombreux cas, il est difficile de collecter de grandes quantités de données auprès d'un participant donné. Par exemple, il n'est pas réaliste de demander aux patients de passer des dizaines d'heures devant un scanner pour vérifier si le système leur convient. Au lieu de cela, les algorithmes peuvent être pré-entraînés sur de grands ensembles de données incluant de nombreux individus et conditions, puis fournir une aide au décodage de l’activité cérébrale des nouveaux patients avec peu de données.

Les recherches de Meta sont encourageantes car les résultats montrent que l’intelligence artificielle auto-supervisée peut décoder avec succès la parole perçue à partir d’enregistrements non invasifs de l’activité cérébrale, malgré le bruit et la variabilité inhérents à ces données transsexuelles. Bien entendu, ces résultats ne constituent qu’une première étape. Dans cet effort de recherche, Meta s'est concentré sur le décodage de la perception de la parole, mais pour atteindre l'objectif ultime de la communication avec le patient, il faut étendre ce travail à la production de la parole.

Ce domaine de recherche pourrait même aller au-delà de l’aide aux patients, et potentiellement inclure de nouvelles façons d’interagir avec les ordinateurs.

En regardant la situation dans son ensemble, les travaux de Meta s’inscrivent dans le cadre des efforts de la communauté scientifique visant à utiliser l’intelligence artificielle pour mieux comprendre le cerveau humain. Meta espère partager publiquement cette recherche pour accélérer les progrès sur les défis futurs.

Analyse papier

Meta : Pas besoin dintubation ! LIA peut savoir ce que vous pensez en regardant votre électroencéphalogramme

Lien papier : https://arxiv.org/pdf/2208.12266.pdf

Cet article propose une architecture unique de bout en bout qui peut fonctionner sur un grand nombre d'individus L'apprentissage contrasté est formé en groupes pour prédire les représentations auto-supervisées de la parole naturelle.

Nous avons évalué le modèle sur quatre ensembles de données publiques, y compris des données enregistrées par magnétoencéphalographie ou électroencéphalographie (M/EEG) de 169 volontaires tout en écoutant la parole naturelle.

Cela fournit une nouvelle idée pour le décodage en temps réel du traitement du langage naturel à partir d'enregistrements non invasifs de l'activité cérébrale.

Méthodes et architecture

Nous formalisons d'abord la tâche générale de décodage neuronal et encourageons l'entraînement à l'aide de pertes contrastives. Avant d'introduire l'architecture d'apprentissage profond pour le décodage cérébral, nous introduisons la riche représentation vocale fournie par le module auto-supervisé pré-entraîné wav2vec 2.0.

Notre objectif est de décoder la parole à partir de séries chronologiques de signaux cérébraux de grande dimension enregistrés par magnétoencéphalographie non invasive (MEG) ou électroencéphalographie (EEG) tandis que des volontaires sains écoutent passivement des phrases prononcées dans leur langue maternelle.

Meta : Pas besoin dintubation ! LIA peut savoir ce que vous pensez en regardant votre électroencéphalogramme

La façon dont le langage parlé est représenté dans le cerveau est en grande partie inconnue, c'est pourquoi les décodeurs sont souvent formés de manière supervisée pour prédire les représentations sous-jacentes de la parole qui sont connues pour être pertinentes pour le cerveau.

Empiriquement, nous observons que cette approche de régression directe se heurte à plusieurs défis : lorsque la parole est présente, les prédictions de décodage semblent être dominées par une composante haut débit indiscernable (Figure 2.A-B).

Ce défi nous a incité à apporter trois contributions principales : l'introduction de pertes contrastives, de représentations vocales profondes pré-entraînées et de décodeurs cérébraux spécialisés.

1. Perte de contraste

Premièrement, nous en déduisons que la régression peut être une perte inefficace car elle s'écarte de notre objectif : décoder la parole à partir de l'activité cérébrale. Par conséquent, nous la remplaçons par une perte contrastive, la perte « CLIP », qui a été initialement conçue pour faire correspondre les représentations latentes dans les deux modalités : texte et images.

2. Représentation de la parole profonde pré-entraînée

Deuxièmement, le spectre de Mel est une représentation de la parole de bas niveau et est donc peu susceptible de correspondre à des représentations corticales riches. Par conséquent, nous remplaçons le spectre Mel Y par des représentations latentes de la parole qui sont soit apprises de bout en bout (modèles "Deep Mel"), soit apprises avec un modèle vocal indépendant et auto-supervisé. En pratique, nous utilisons wav2vec2-large-xlsr-531, qui a été pré-entraîné sur 56 000 heures de parole dans 53 langues différentes.

3. "Décodeur cérébral" spécialisé

Enfin, pour le module cérébral, nous utilisons un réseau neuronal profond fclip pour saisir la série temporelle M/EEG originale X et le plan unique correspondant de l'encodage du sujet. , et génère la représentation latente du cerveau Z, échantillonnée au même rythme que X.

Meta : Pas besoin dintubation ! LIA peut savoir ce que vous pensez en regardant votre électroencéphalogramme

Cette architecture se compose de (1) une couche d'attention spatiale sur le capteur M/EEG, qui est ensuite conçue par une convolution 1x1 spécifique à un objet pour exploiter la variabilité inter-sujet, qui l'entrée est une pile de blocs convolutifs.

Meta : Pas besoin dintubation ! LIA peut savoir ce que vous pensez en regardant votre électroencéphalogramme

Les résultats montrent que le modèle wav2vec 2.0 peut identifier les clips vocaux correspondants à partir de 3 secondes de signaux EEG, avec une précision de 72,5% parmi 1 594 clips différents, et 2 604 signaux EEG dans les clips enregistrés. , la précision atteint 19,1 % et il peut décoder des phrases qui ne font pas partie de l'ensemble d'apprentissage.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal