Table des matières
Laissez "parler" un cerveau qui n'a pas parlé depuis 15 ans
Comment fonctionnent les implants neuronaux ?
Comment les muscles vous aident à parler​
L'utilité de l'intelligence artificielle dans les neurotechnologies d'aujourd'hui
Futur : utilisez la voix au lieu de la sortie de texte
Maison Périphériques technologiques IA Utiliser le machine learning pour décoder un cerveau « sans voix » depuis 15 ans et le laisser « parler »

Utiliser le machine learning pour décoder un cerveau « sans voix » depuis 15 ans et le laisser « parler »

Apr 14, 2023 pm 12:46 PM
系统 机器学习 解码

​Travail abstrait Big data

Auteur : Miggy

Pour les patients paralysés, la plus grande douleur vient de l'incapacité de communiquer avec le monde extérieur. Bien que le cerveau soit toujours actif et veuille s'exprimer, l'incapacité de piloter les muscles vocaux entraînera une détérioration progressive du mécanisme du langage chez ces patients.

Edward Chang, chef du service de neurochirurgie à l'Université de Californie à San Francisco, développe une technologie d'interface cerveau-ordinateur pour les personnes qui ont perdu la capacité de parler. Son laboratoire se consacre au décodage des signaux cérébraux liés aux commandes des voies vocales et à la transmission des fonctions linguistiques du cerveau via des ordinateurs via des implants neuronaux. Le projet nécessitait non seulement le meilleur matériel neurotechnologique disponible aujourd’hui, mais également de puissants modèles d’apprentissage automatique.

Récemment, cette technologie a également fait de grands progrès, permettant à un patient « sans voix » depuis 15 ans en raison d'une paralysie d'utiliser un ordinateur pour commencer à communiquer avec le monde extérieur. Chang a également enregistré ce processus technique et l'a publié sur IEEE.

Jetons un coup d’œil.

Laissez "parler" un cerveau qui n'a pas parlé depuis 15 ans

L'écran de l'ordinateur affichait "Voulez-vous boire de l'eau ?" "Cette question. En dessous, trois petits points clignotent, puis une ligne de mots apparaît : "Non, je n'ai pas soif. "

L'activité cérébrale permet la communication - il convient de mentionner que le cerveau qui a produit cette conversation était le cerveau d'une personne muette qui n'avait pas parlé depuis plus de quinze ans, à cause d'un accident vasculaire cérébral. d'autres parties de son corps La communication du patient avec le monde extérieur a cessé. Il a essayé de nombreuses nouvelles technologies pour tenter de communiquer avec le monde extérieur. Plus récemment, il a utilisé un pointeur attaché à une casquette de baseball pour taper des mots sur un écran tactile. Efficace mais lent.

Récemment, ce patient s'est porté volontaire pour l'essai clinique de mon groupe de recherche à l'Université de Californie à San Francisco, dans l'espoir d'explorer un moyen de communication plus rapide, jusqu'à présent, il n'avait accès à son cerveau que pendant l'étude. produit du texte, mais il espère contribuer à développer cette technologie pour en faire quelque chose que des gens comme lui peuvent utiliser dans la vie quotidienne

Dans notre étude pilote, la surface du cerveau de ce volontaire était recouverte d'un réseau d'électrodes fines et flexibles qui enregistrent les signaux neuronaux et. les envoie à un décodeur vocal, qui traduit les signaux en ce qu'il veut dire. C'est la première fois qu'une personne paralysée qui ne peut pas parler utilise la neurotechnologie pour « diffuser » depuis son cerveau des mots entiers, pas seulement des lettres. .

Cet essai est l'aboutissement de plus d'une décennie de recherche sur les mécanismes cérébraux sous-jacents qui régissent la parole, et nous sommes incroyablement fiers de ce que nous avons accompli jusqu'à présent. Mais nous ne faisons que commencer. L'UCSF travaille avec des collègues du monde entier pour rendre cette technologie suffisamment sûre, stable et fiable pour une utilisation quotidienne à la maison. Nous travaillons également à améliorer les performances du système, donc cela en vaut la peine

L'interface cerveau-ordinateur a donné. propose un vocabulaire de 50 mots pratiques.

Comment fonctionnent les implants neuronaux ?

La technologie des implants neuronaux a parcouru un long chemin au cours des deux dernières décennies. Le nerf cochléaire dans l'oreille interne ou directement dans le tronc cérébral auditif Il existe également des recherches approfondies sur les implants rétiniens et cérébraux, ainsi que des efforts pour fournir une sensation tactile dans les mains prothétiques. Toutes ces prothèses sensorielles prennent des informations du monde extérieur et les convertissent. en signaux électriques qui sont introduits dans le centre de traitement du cerveau

La semaine dernière, Digest Magazine a également fait état d'un implant qui aide les patients souffrant de perte d'odorat à retrouver leur sens du goût.

Une autre classe de neuroprothèses enregistre l'activité électrique du cerveau et. le convertit en signaux qui contrôlent le monde extérieur, comme un bras robotique, un contrôleur de jeu vidéo ou un curseur sur un écran d'ordinateur. Ce dernier type a été utilisé par des organisations telles que le consortium BrainGate pour permettre aux personnes paralysées de se déplacer. tapez des mots - parfois une lettre à la fois, parfois en utilisant une fonction de saisie semi-automatique pour accélérer la saisie

Ce type de saisie par le cerveau n'est pas nouveau, cependant, les chercheurs mettent souvent des implants en place. Une autre approche a été lancée dans un article de 2021 par. certains de mes collaborateurs dans le cortex moteur, la partie du cerveau qui contrôle le mouvement, qui permet à un utilisateur d'imaginer qu'il tient un stylo sur du papier et écrit une lettre, générant des signaux dans le cortex moteur qui sont traduits en texte. Cette méthode a établi un nouveau record de vitesse de frappe, permettant aux volontaires d'écrire environ 18 mots par minute.

Dans nos dernières recherches en laboratoire, nous avons adopté une approche plus efficace. Au lieu de décoder l'intention de l'utilisateur de déplacer le curseur ou le stylet, nous décodons l'intention de contrôler le conduit vocal, y compris les dizaines de muscles qui contrôlent le larynx (souvent appelé boîte vocale), la langue et les lèvres.

Pour un homme paralysé, une configuration de conversation apparemment simple est rendue possible par un matériel neurotechnologique sophistiqué et un système d'apprentissage automatique qui décode ses signaux cérébraux.

J'ai commencé à travailler dans ce domaine il y a plus de dix ans. En tant que neurochirurgien, je vois souvent des patients souffrant de blessures graves qui les empêchent de parler. À ma grande surprise, dans de nombreux cas, la localisation des lésions cérébrales ne correspondait pas aux syndromes que j'avais découverts à l'école de médecine, et j'ai réalisé que nous avions encore beaucoup à apprendre sur la manière dont le cerveau traite le langage. J'ai décidé d'étudier la neurobiologie sous-jacente du langage et, si possible, de développer une interface cerveau-machine (IMC) pour rétablir la communication entre les personnes ayant perdu le langage. En plus de ma formation en neurochirurgie, mon équipe possède une expertise en linguistique, en génie électrique, en informatique, en bio-ingénierie et en médecine.

Comment les muscles vous aident à parler​

Le langage est l'une des capacités qui rendent les humains uniques. De nombreuses autres espèces émettent des sons, mais seuls les humains combinent un ensemble de sons pour s'exprimer d'innombrables manières différentes. Il s'agit également d'un comportement moteur très complexe : certains experts le considèrent comme le comportement moteur le plus complexe que les humains adoptent. La parole est le produit d'un flux d'air modulé à travers le conduit vocal ; nous façonnons notre respiration en créant des vibrations audibles dans les cordes vocales laryngées et en modifiant la forme de nos lèvres, de notre mâchoire et de notre langue.

Les nombreux muscles du conduit vocal sont complètement différents des muscles articulaires, comme ceux des bras et des jambes, qui ne peuvent bouger que de quelques manières prescrites. Par exemple, les muscles qui contrôlent les lèvres sont des sphincters, tandis que les muscles qui composent la langue sont davantage contrôlés par la pression hydraulique : la langue est principalement constituée d'un volume fixe de tissu musculaire, donc le déplacement d'une partie de la langue modifie son action. façonner ailleurs. La physique qui contrôle le mouvement de ces muscles est complètement différente de celle des biceps ou des ischio-jambiers.

Parce qu'il y a tellement de muscles impliqués et que chacun d'eux a tellement de degrés de liberté, il existe fondamentalement un nombre infini de configurations possibles. Mais lorsque les gens parlent, il s’avère qu’ils utilisent relativement peu d’actions principales (qui varient selon les langues). Par exemple, lorsque les anglophones prononcent le son « d », ils placent leur langue derrière leurs dents ; lorsqu’ils prononcent le son « k », la base de leur langue s’élève pour toucher le plafond à l’arrière de la bouche. Peu de gens réalisent les mouvements musculaires précis, complexes et coordonnés nécessaires pour prononcer les mots les plus simples.

David Moses, membre de l'équipe, examine les lectures des ondes cérébrales des patients [écran de gauche] et les affichages d'activité du système de décodage [écran de droite].

Mon groupe de recherche se concentre sur la partie du cortex moteur du cerveau qui envoie des commandes de mouvement aux muscles du visage, de la gorge, de la bouche et de la langue. Ces régions du cerveau sont multitâches : elles gèrent les mouvements musculaires qui produisent la parole, ainsi que les mouvements de ces mêmes muscles pour avaler, sourire et embrasser.

L’étude de l’activité neuronale dans ces domaines nécessite une résolution spatiale au niveau millimétrique et une résolution temporelle au niveau de la milliseconde. Historiquement, les systèmes d’imagerie non invasifs ont pu fournir l’un ou l’autre, mais pas les deux. Lorsque nous avons commencé cette étude, nous avons constaté qu’il existait très peu de données sur la relation entre les schémas d’activité cérébrale et les composants les plus simples de la parole : les phonèmes et les syllabes.

Ici, nous tenons à remercier nos bénévoles. Au centre d'épilepsie de l'UCSF, les patients se préparant à une intervention chirurgicale ont souvent des électrodes placées chirurgicalement à la surface de leur cerveau pendant plusieurs jours afin que nous puissions cartographier les zones impliquées dans les crises. Pendant ces jours d’arrêt des connexions filaires, de nombreux patients se sont portés volontaires pour participer à des expériences de recherche neurologique utilisant des enregistrements d’électrodes dans leur cerveau, ce qui nous a permis d’étudier les schémas d’activité neuronale pendant que les patients parlent.

Le matériel impliqué s'appelle l'électrocorticographie (ECoG). Les électrodes du système ECoG ne pénètrent pas dans le cerveau mais reposent à sa surface. Nos réseaux peuvent contenir des centaines de capteurs d’électrodes, chacun enregistrant des milliers de neurones. Jusqu'à présent, nous avons utilisé un réseau de 256 canaux. Notre objectif dans ces premières études était de découvrir les schémas d’activité corticale lorsque les gens prononcent des syllabes simples. Nous avons demandé à des volontaires de prononcer des sons et des mots spécifiques, tandis que leurs schémas neuronaux étaient enregistrés et que les mouvements de leur langue et de leur bouche étaient suivis. Parfois, nous faisons cela en leur faisant appliquer du maquillage coloré et en utilisant un système de vision par ordinateur pour extraire les gestes moteurs ; d'autres fois, nous utilisons un appareil à ultrasons placé sous la mâchoire du patient pour imager sa langue en mouvement.

Le système commence par un réseau d’électrodes flexible qui est superposé sur le cerveau du patient pour recevoir les signaux du cortex moteur. Le réseau capture spécifiquement les commandes de mouvement pour le conduit vocal du patient. Un port fixé au crâne mène à des fils connectés à un système informatique, qui décode les signaux cérébraux et les traduit en ce que le patient veut dire, affichant ses réponses sur un écran.

Nous utilisons ces systèmes pour faire correspondre les modèles neuronaux au mouvement du conduit vocal. Au départ, nous nous posions beaucoup de questions sur Neural Code. Une possibilité est que l'activité neuronale code la direction de muscles spécifiques, le cerveau activant et désactivant essentiellement ces muscles comme si on appuyait sur les touches d'un clavier, et par un autre modèle déterminant la vitesse à laquelle les muscles se contractent. Une autre raison est que l’activité neuronale correspond au schéma coordonné de contractions musculaires utilisées pour produire un certain son. (Pour produire le son « aaah », par exemple, la langue et la mâchoire doivent tomber.) Nous avons découvert qu’il existe une carte représentationnelle qui contrôle différentes parties du conduit vocal, ainsi que différentes régions du cerveau. Nous pouvons combiner les deux pour produire un discours fluide.

L'utilité de l'intelligence artificielle dans les neurotechnologies d'aujourd'hui

Notre travail dépend des progrès de l'intelligence artificielle au cours de la dernière décennie. Nous pouvons introduire les données collectées sur l'activité neuronale et la cinématique de la parole dans un réseau neuronal, puis laisser l'algorithme d'apprentissage automatique trouver des modèles de corrélation entre les deux ensembles de données, établissant ainsi un lien entre l'activité neuronale et la parole produite et l'utiliser. modèle pour produire de la parole ou du texte généré par ordinateur. Mais cette technique ne permet pas de former des algorithmes pour les personnes paralysées car il nous manque la moitié des données : nous disposons des schémas neuronaux, mais pas des mouvements musculaires correspondants.

Nous avons réalisé qu'une façon plus intelligente d'utiliser l'apprentissage automatique consiste à diviser le problème en deux étapes. Tout d’abord, le décodeur traduit les signaux du cerveau en mouvements intentionnels des muscles du conduit vocal, puis traduit ces mouvements intentionnels en parole ou texte synthétisé.

Nous appelons cela une approche bionique car elle reproduit les schémas de mouvement biologiques ; dans le corps humain, l'activité neuronale est directement responsable du mouvement du conduit vocal et seulement indirectement du son produit. Un grand avantage de cette approche réside dans la deuxième étape consistant à entraîner le décodeur à convertir les mouvements musculaires en sons. La relation entre le mouvement des voies vocales et le son étant plus accessible, nous avons pu entraîner le décodeur sur un vaste ensemble de données provenant de personnes non paralysées.

Le prochain grand défi consiste à apporter la technologie aux personnes qui peuvent réellement en bénéficier.

Les National Institutes of Health (NIH) financent notre essai pilote qui débutera en 2021. Nous avons déjà deux volontaires paralysés implantés avec des puces ECoG, et nous espérons en recruter davantage dans les années à venir. L'objectif principal est d'améliorer leur communication et nous mesurons les performances en mots par minute. L'adulte moyen qui tape sur un clavier complet peut taper 40 mots par minute, les dactylos les plus rapides atteignant des vitesses de plus de 80 mots par minute.

Futur : utilisez la voix au lieu de la sortie de texte

Nous pensons que l'utilisation du système vocal pour parler aura un meilleur effet. Les humains parlent beaucoup plus vite qu’ils ne tapent : les anglophones peuvent facilement produire 150 mots par minute. Nous voulons que les personnes paralysées communiquent à 100 mots par minute. Pour atteindre cet objectif, nous avons encore beaucoup de travail à faire.

La procédure d'implantation est similaire aux autres implants. Tout d’abord, le chirurgien retire une petite partie du crâne ; ensuite, le réseau flexible d’ECoG est délicatement placé sur la surface corticale. Un petit port est ensuite fixé au crâne et sort par une ouverture séparée dans le cuir chevelu. Nous avons actuellement besoin de ce port, qui se connecte à des fils externes pour transmettre les données des électrodes, mais nous espérons rendre le système sans fil à l'avenir.

Nous avons envisagé d'utiliser des microélectrodes pénétrantes car elles peuvent enregistrer des populations neuronales plus petites et donc fournir plus de détails sur l'activité neuronale. Mais le matériel actuel n’est pas aussi puissant et sûr que l’ECoG pour une utilisation clinique.

Une autre considération est que les électrodes pénétrantes nécessitent souvent un recalibrage quotidien pour convertir les signaux neuronaux en commandes claires, et les recherches sur les dispositifs neuronaux montrent que la vitesse d'installation et la fiabilité des performances sont essentielles pour inciter les gens à utiliser la technologie. C'est pourquoi nous accordons la priorité à la stabilité lors de la création de systèmes « plug and play » pour une utilisation à long terme. Nous avons mené une étude sur les changements dans les signaux neuronaux au fil du temps chez des volontaires et avons constaté que le décodeur fonctionnait mieux s'il utilisait des modèles de données sur plusieurs sessions et jours. En termes d'apprentissage automatique, nous disons que les « poids » du décodeur sont hérités, ce qui entraîne un signal neuronal intégré.

Comme nos volontaires paralysés étaient incapables de parler pendant que nous observions leurs schémas cérébraux, nous avons demandé à notre premier volontaire d'essayer deux approches différentes. Il a commencé par une liste de 50 mots pratiques pour un usage quotidien, tels que « faim », « soif », « s'il vous plaît », « aide » et « ordinateur ». Au cours de 48 séances réparties sur plusieurs mois, nous lui avons parfois demandé d'imaginer prononcer chaque mot de la liste et parfois lui avons demandé de parler et d'essayer de « dire » les mots. Nous avons constaté qu’essayer de parler produisait des signaux cérébraux plus clairs, suffisants pour entraîner l’algorithme de décodage. Le volontaire peut ensuite utiliser ces mots de la liste pour générer une phrase de son choix, comme « Non, je n'ai pas soif ».

Nous travaillons maintenant à élargir notre vocabulaire. Pour y parvenir, nous devons continuer à améliorer les algorithmes et les interfaces actuels, mais je pense que ces améliorations se produiront dans les mois et les années à venir. Maintenant que la preuve de principe est établie, l’objectif est l’optimisation. Nous pouvons nous concentrer sur la création de systèmes plus rapides, plus précis et, surtout, plus sûrs et plus fiables. Les choses devraient aller vite maintenant.

Les plus grandes avancées pourraient survenir si nous parvenons à mieux comprendre les systèmes cérébraux que nous essayons de décoder et comment la paralysie modifie leur activité. Nous avons réalisé que les schémas neuronaux des patients paralysés incapables d’envoyer des commandes aux muscles de leurs voies vocales sont très différents de ceux des patients épileptiques capables d’envoyer des commandes. Nous tentons un exploit ambitieux en matière d'ingénierie de l'IMC, et il reste encore beaucoup à apprendre sur les neurosciences sous-jacentes. Nous pensons que tout est réuni pour donner à nos patients la capacité de communiquer.

Source du matériel : https://spectrum.ieee.org/brain-computer-interface-speech​

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
2 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Repo: Comment relancer ses coéquipiers
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Adventure: Comment obtenir des graines géantes
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Combien de temps faut-il pour battre Split Fiction?
3 Il y a quelques semaines By DDD

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Cet article vous amènera à comprendre SHAP : explication du modèle pour l'apprentissage automatique Cet article vous amènera à comprendre SHAP : explication du modèle pour l'apprentissage automatique Jun 01, 2024 am 10:58 AM

Dans les domaines de l’apprentissage automatique et de la science des données, l’interprétabilité des modèles a toujours été au centre des préoccupations des chercheurs et des praticiens. Avec l'application généralisée de modèles complexes tels que l'apprentissage profond et les méthodes d'ensemble, la compréhension du processus décisionnel du modèle est devenue particulièrement importante. Explainable AI|XAI contribue à renforcer la confiance dans les modèles d'apprentissage automatique en augmentant la transparence du modèle. L'amélioration de la transparence des modèles peut être obtenue grâce à des méthodes telles que l'utilisation généralisée de plusieurs modèles complexes, ainsi que les processus décisionnels utilisés pour expliquer les modèles. Ces méthodes incluent l'analyse de l'importance des caractéristiques, l'estimation de l'intervalle de prédiction du modèle, les algorithmes d'interprétabilité locale, etc. L'analyse de l'importance des fonctionnalités peut expliquer le processus de prise de décision du modèle en évaluant le degré d'influence du modèle sur les fonctionnalités d'entrée. Estimation de l’intervalle de prédiction du modèle

Le système de conduite intelligent Qiankun ADS3.0 de Huawei sera lancé en août et sera lancé pour la première fois sur Xiangjie S9 Le système de conduite intelligent Qiankun ADS3.0 de Huawei sera lancé en août et sera lancé pour la première fois sur Xiangjie S9 Jul 30, 2024 pm 02:17 PM

Le 29 juillet, lors de la cérémonie de lancement de la 400 000e nouvelle voiture d'AITO Wenjie, Yu Chengdong, directeur général de Huawei, président de Terminal BG et président de la BU Smart Car Solutions, a assisté et prononcé un discours et a annoncé que les modèles de la série Wenjie seraient sera lancé cette année En août, la version Huawei Qiankun ADS 3.0 a été lancée et il est prévu de pousser successivement les mises à niveau d'août à septembre. Le Xiangjie S9, qui sortira le 6 août, lancera le système de conduite intelligent ADS3.0 de Huawei. Avec l'aide du lidar, la version Huawei Qiankun ADS3.0 améliorera considérablement ses capacités de conduite intelligente, disposera de capacités intégrées de bout en bout et adoptera une nouvelle architecture de bout en bout de GOD (identification générale des obstacles)/PDP (prédictive prise de décision et contrôle), fournissant la fonction NCA de conduite intelligente d'une place de stationnement à l'autre et mettant à niveau CAS3.0

Transparent! Une analyse approfondie des principes des principaux modèles de machine learning ! Transparent! Une analyse approfondie des principes des principaux modèles de machine learning ! Apr 12, 2024 pm 05:55 PM

En termes simples, un modèle d’apprentissage automatique est une fonction mathématique qui mappe les données d’entrée à une sortie prédite. Plus précisément, un modèle d'apprentissage automatique est une fonction mathématique qui ajuste les paramètres du modèle en apprenant à partir des données d'entraînement afin de minimiser l'erreur entre la sortie prédite et la véritable étiquette. Il existe de nombreux modèles dans l'apprentissage automatique, tels que les modèles de régression logistique, les modèles d'arbre de décision, les modèles de machines à vecteurs de support, etc. Chaque modèle a ses types de données et ses types de problèmes applicables. Dans le même temps, il existe de nombreux points communs entre les différents modèles, ou il existe une voie cachée pour l’évolution du modèle. En prenant comme exemple le perceptron connexionniste, en augmentant le nombre de couches cachées du perceptron, nous pouvons le transformer en un réseau neuronal profond. Si une fonction noyau est ajoutée au perceptron, elle peut être convertie en SVM. celui-ci

Identifier le surapprentissage et le sous-apprentissage grâce à des courbes d'apprentissage Identifier le surapprentissage et le sous-apprentissage grâce à des courbes d'apprentissage Apr 29, 2024 pm 06:50 PM

Cet article présentera comment identifier efficacement le surajustement et le sous-apprentissage dans les modèles d'apprentissage automatique grâce à des courbes d'apprentissage. Sous-ajustement et surajustement 1. Surajustement Si un modèle est surentraîné sur les données de sorte qu'il en tire du bruit, alors on dit que le modèle est en surajustement. Un modèle surajusté apprend chaque exemple si parfaitement qu'il classera mal un exemple inédit/inédit. Pour un modèle surajusté, nous obtiendrons un score d'ensemble d'entraînement parfait/presque parfait et un score d'ensemble/test de validation épouvantable. Légèrement modifié : "Cause du surajustement : utilisez un modèle complexe pour résoudre un problème simple et extraire le bruit des données. Parce qu'un petit ensemble de données en tant qu'ensemble d'entraînement peut ne pas représenter la représentation correcte de toutes les données."

L'évolution de l'intelligence artificielle dans l'exploration spatiale et l'ingénierie des établissements humains L'évolution de l'intelligence artificielle dans l'exploration spatiale et l'ingénierie des établissements humains Apr 29, 2024 pm 03:25 PM

Dans les années 1950, l’intelligence artificielle (IA) est née. C’est à ce moment-là que les chercheurs ont découvert que les machines pouvaient effectuer des tâches similaires à celles des humains, comme penser. Plus tard, dans les années 1960, le Département américain de la Défense a financé l’intelligence artificielle et créé des laboratoires pour poursuivre son développement. Les chercheurs trouvent des applications à l’intelligence artificielle dans de nombreux domaines, comme l’exploration spatiale et la survie dans des environnements extrêmes. L'exploration spatiale est l'étude de l'univers, qui couvre l'ensemble de l'univers au-delà de la terre. L’espace est classé comme environnement extrême car ses conditions sont différentes de celles de la Terre. Pour survivre dans l’espace, de nombreux facteurs doivent être pris en compte et des précautions doivent être prises. Les scientifiques et les chercheurs pensent qu'explorer l'espace et comprendre l'état actuel de tout peut aider à comprendre le fonctionnement de l'univers et à se préparer à d'éventuelles crises environnementales.

Implémentation d'algorithmes d'apprentissage automatique en C++ : défis et solutions courants Implémentation d'algorithmes d'apprentissage automatique en C++ : défis et solutions courants Jun 03, 2024 pm 01:25 PM

Les défis courants rencontrés par les algorithmes d'apprentissage automatique en C++ incluent la gestion de la mémoire, le multithread, l'optimisation des performances et la maintenabilité. Les solutions incluent l'utilisation de pointeurs intelligents, de bibliothèques de threads modernes, d'instructions SIMD et de bibliothèques tierces, ainsi que le respect des directives de style de codage et l'utilisation d'outils d'automatisation. Des cas pratiques montrent comment utiliser la bibliothèque Eigen pour implémenter des algorithmes de régression linéaire, gérer efficacement la mémoire et utiliser des opérations matricielles hautes performances.

Toujours nouveau ! Mises à niveau de la série Huawei Mate60 vers HarmonyOS 4.2 : amélioration du cloud AI, le dialecte Xiaoyi est si facile à utiliser Toujours nouveau ! Mises à niveau de la série Huawei Mate60 vers HarmonyOS 4.2 : amélioration du cloud AI, le dialecte Xiaoyi est si facile à utiliser Jun 02, 2024 pm 02:58 PM

Le 11 avril, Huawei a officiellement annoncé pour la première fois le plan de mise à niveau de 100 machines HarmonyOS 4.2. Cette fois, plus de 180 appareils participeront à la mise à niveau, couvrant les téléphones mobiles, les tablettes, les montres, les écouteurs, les écrans intelligents et d'autres appareils. Au cours du mois dernier, avec la progression constante du plan de mise à niveau de 100 machines HarmonyOS4.2, de nombreux modèles populaires, notamment Huawei Pocket2, la série Huawei MateX5, la série nova12, la série Huawei Pura, etc., ont également commencé à être mis à niveau et à s'adapter, ce qui signifie qu'il y aura davantage d'utilisateurs de modèles Huawei pourront profiter de l'expérience commune et souvent nouvelle apportée par HarmonyOS. À en juger par les commentaires des utilisateurs, l'expérience des modèles de la série Huawei Mate60 s'est améliorée à tous égards après la mise à niveau d'HarmonyOS4.2. Surtout Huawei M

IA explicable : Expliquer les modèles IA/ML complexes IA explicable : Expliquer les modèles IA/ML complexes Jun 03, 2024 pm 10:08 PM

Traducteur | Revu par Li Rui | Chonglou Les modèles d'intelligence artificielle (IA) et d'apprentissage automatique (ML) deviennent aujourd'hui de plus en plus complexes, et le résultat produit par ces modèles est une boîte noire – impossible à expliquer aux parties prenantes. L'IA explicable (XAI) vise à résoudre ce problème en permettant aux parties prenantes de comprendre comment fonctionnent ces modèles, en s'assurant qu'elles comprennent comment ces modèles prennent réellement des décisions et en garantissant la transparence des systèmes d'IA, la confiance et la responsabilité pour résoudre ce problème. Cet article explore diverses techniques d'intelligence artificielle explicable (XAI) pour illustrer leurs principes sous-jacents. Plusieurs raisons pour lesquelles l’IA explicable est cruciale Confiance et transparence : pour que les systèmes d’IA soient largement acceptés et fiables, les utilisateurs doivent comprendre comment les décisions sont prises

See all articles