


À quoi pensent les chiens à la maison ? Les scientifiques utilisent l'apprentissage automatique pour le comprendre ?
Avez-vous déjà pensé à ce qui se passe dans l'esprit d'un chien qui agit avec coquetterie et vous supplie de manger tous les jours ?
Pourquoi les chiens qui font beaucoup d'efforts pour les élever se retournent-ils parfois et sautent-ils dans les bras des autres ?
En fait, les chiens ne font pas cela intentionnellement pour vous mettre en colère.
Une expérience de l'Université Emory montre que les chiens peuvent avoir une vision du monde complètement différente de la nôtre.
Les humains accordent plus d'attention aux objets, mais les chiens ne se soucient pas beaucoup de qui ou de quel objet ils voient, mais se soucient davantage de l'action elle-même.
Il va donc de soi qu'un chien peut être proche de toute personne qui le traite bien. (Bien sûr, n'oubliez pas que les chiens ont un odorat aiguisé et que de nombreux chiens reconnaissent également leurs propriétaires)
De plus, les systèmes visuels des chiens et des humains sont également très différents. Ils ne peuvent voir que les tons jaunes et bleus. , mais ils possèdent un récepteur visuel sensible, utilisé pour observer les mouvements.
Cette expérience a utilisé l'apprentissage automatique pour déterminer l'activité cérébrale du chien, et l'article correspondant a été publié dans The Journal of Visualized Experiments.
Les chercheurs ont souligné que cette méthode présente un avantage évident : elle est non invasive.
Cette méthode n’a été utilisée que sur des primates auparavant, cette expérience sur des chiens constitue donc une avancée majeure.
Jetons un coup d'œil au processus d'expérience spécifique.
Comparaison de l'activité cérébrale des chiens et des humains
Les chercheurs ont utilisé l'apprentissage automatique et l'IRMf (imagerie par résonance magnétique fonctionnelle) pour explorer l'activité cérébrale des chiens lorsqu'ils regardent différents types de vidéos.
Pourquoi devriez-vous choisir des chiens plutôt que d’autres animaux ?
Parce que les chiens sont des animaux relativement faciles à dresser, après un certain entraînement, ils peuvent coopérer docilement avec les examens IRM (résonance magnétique) sans avoir besoin d'injecter des sédatifs ou d'utiliser d'autres méthodes de contention.
Cependant, bien que les chiens soient relativement obéissants, dans cette étude, en plus de participer à des IRM, ils devaient également regarder des vidéos pendant une longue période. Au final, seuls deux chiens ont été sélectionnés, l'un était un mâle Boxer mix de 4 ans et l'autre était une femelle Boston Terrier mix de 11 ans.
△Les chiens regardent des vidéos
Chaque chien a regardé trois séries de vidéos différentes, chaque série de vidéos a duré 30 minutes, avec un total de 256 clips vidéo. Pour contrôler les variables, ces vidéos n'avaient pas de son.
Certaines vidéos se concentrent sur la présentation de différents objets (par exemple des personnes, des chiens, des voitures), tandis que d'autres se concentrent sur la présentation de différentes actions (par exemple jouer, manger, sentir).
À titre de comparaison, deux volontaires humains ont également regardé ces clips vidéo en utilisant la même procédure.
Pendant que les volontaires et les chiens regardaient la vidéo, les chercheurs ont utilisé un scanner IRM 3T pour enregistrer des images de leur activité cérébrale.
Ensuite, ils ont utilisé des réseaux de neurones pour entraîner et tester 3 classificateurs afin de distinguer les « objets » des « actions ».
Hé, pourquoi pas 2 mais 3 ?
Car parmi les classificateurs de comportement, l'un a été formé sur 3 actions différentes, et l'autre a appris 5 actions.
Les résultats montrent que le cerveau humain réagit bien aux objets et aux mouvements, tandis que le cerveau du chien n'est sensible qu'aux mouvements. Ils ne semblent pas avoir froid envers différentes personnes et objets.
△La gauche est l'image IRM du cerveau humain et la droite est l'image IRM du cerveau du chien
Afin d'évaluer les performances du modèle et de rendre les données plus convaincantes, les chercheurs ont également utilisé l'algorithme d'apprentissage automatique Ivis pour quantifier les données collectées.
En examinant les données de volontaires humains, ces modèles ont tous atteint une précision de plus de 99 % dans la cartographie de leurs données d'activité cérébrale sur différents classificateurs.
Lors du décodage des données cérébrales de chien, le modèle est fondamentalement inutile pour les classificateurs basés sur les objets, cependant, pour les classificateurs basés sur le comportement, la précision peut atteindre 60 % à 88 %.
On voit que la façon de penser des chiens est très différente de la nôtre !
À propos du chercheur
Le chercheur est du département de psychologie de l'Université Emory.
La première auteure de l'article, Erin M. Phillips, est actuellement doctorante au Département d'écologie et de biologie évolutive de l'Université de Princeton.
Elle est venue à l'Université Emory en tant que chercheuse invitée et a participé à cette recherche.
Le co-auteur de l'article, Gregory S. Berns, est actuellement professeur à l'Université Emory. Ses principaux domaines de recherche sont la neuroimagerie de la prise de décision humaine, l'IRMf chez le chien et la neurobiologie comparée.
Le professeur Berns est diplômé du département de physique de l'Université de Princeton avec un diplôme de premier cycle et a obtenu deux doctorats : un doctorat en génie biomédical et un doctorat en médecine.
Berns pense qu'il est compréhensible que les chiens accordent plus d'attention aux mouvements, car les animaux doivent naturellement prêter une attention particulière aux changements dans l'environnement afin de chasser ou d'éviter d'être mangés.
Bien que seulement 2 chiens aient participé à cette étude, les chercheurs mèneront des expériences sur davantage de chiens et d'autres animaux à l'avenir pour explorer la façon dont les animaux perçoivent le monde.
Adresse papier : https://www.jove.com/t/64442/through-dog-s-eyes-fmri-decoding-naturalistic-videos-from-dog
Lien de référence : https://www.eurekalert .org/news-releases/964886
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Dans les domaines de l’apprentissage automatique et de la science des données, l’interprétabilité des modèles a toujours été au centre des préoccupations des chercheurs et des praticiens. Avec l'application généralisée de modèles complexes tels que l'apprentissage profond et les méthodes d'ensemble, la compréhension du processus décisionnel du modèle est devenue particulièrement importante. Explainable AI|XAI contribue à renforcer la confiance dans les modèles d'apprentissage automatique en augmentant la transparence du modèle. L'amélioration de la transparence des modèles peut être obtenue grâce à des méthodes telles que l'utilisation généralisée de plusieurs modèles complexes, ainsi que les processus décisionnels utilisés pour expliquer les modèles. Ces méthodes incluent l'analyse de l'importance des caractéristiques, l'estimation de l'intervalle de prédiction du modèle, les algorithmes d'interprétabilité locale, etc. L'analyse de l'importance des fonctionnalités peut expliquer le processus de prise de décision du modèle en évaluant le degré d'influence du modèle sur les fonctionnalités d'entrée. Estimation de l’intervalle de prédiction du modèle

Cet article présentera comment identifier efficacement le surajustement et le sous-apprentissage dans les modèles d'apprentissage automatique grâce à des courbes d'apprentissage. Sous-ajustement et surajustement 1. Surajustement Si un modèle est surentraîné sur les données de sorte qu'il en tire du bruit, alors on dit que le modèle est en surajustement. Un modèle surajusté apprend chaque exemple si parfaitement qu'il classera mal un exemple inédit/inédit. Pour un modèle surajusté, nous obtiendrons un score d'ensemble d'entraînement parfait/presque parfait et un score d'ensemble/test de validation épouvantable. Légèrement modifié : "Cause du surajustement : utilisez un modèle complexe pour résoudre un problème simple et extraire le bruit des données. Parce qu'un petit ensemble de données en tant qu'ensemble d'entraînement peut ne pas représenter la représentation correcte de toutes les données."

Dans les années 1950, l’intelligence artificielle (IA) est née. C’est à ce moment-là que les chercheurs ont découvert que les machines pouvaient effectuer des tâches similaires à celles des humains, comme penser. Plus tard, dans les années 1960, le Département américain de la Défense a financé l’intelligence artificielle et créé des laboratoires pour poursuivre son développement. Les chercheurs trouvent des applications à l’intelligence artificielle dans de nombreux domaines, comme l’exploration spatiale et la survie dans des environnements extrêmes. L'exploration spatiale est l'étude de l'univers, qui couvre l'ensemble de l'univers au-delà de la terre. L’espace est classé comme environnement extrême car ses conditions sont différentes de celles de la Terre. Pour survivre dans l’espace, de nombreux facteurs doivent être pris en compte et des précautions doivent être prises. Les scientifiques et les chercheurs pensent qu'explorer l'espace et comprendre l'état actuel de tout peut aider à comprendre le fonctionnement de l'univers et à se préparer à d'éventuelles crises environnementales.

Les défis courants rencontrés par les algorithmes d'apprentissage automatique en C++ incluent la gestion de la mémoire, le multithread, l'optimisation des performances et la maintenabilité. Les solutions incluent l'utilisation de pointeurs intelligents, de bibliothèques de threads modernes, d'instructions SIMD et de bibliothèques tierces, ainsi que le respect des directives de style de codage et l'utilisation d'outils d'automatisation. Des cas pratiques montrent comment utiliser la bibliothèque Eigen pour implémenter des algorithmes de régression linéaire, gérer efficacement la mémoire et utiliser des opérations matricielles hautes performances.

Traducteur | Revu par Li Rui | Chonglou Les modèles d'intelligence artificielle (IA) et d'apprentissage automatique (ML) deviennent aujourd'hui de plus en plus complexes, et le résultat produit par ces modèles est une boîte noire – impossible à expliquer aux parties prenantes. L'IA explicable (XAI) vise à résoudre ce problème en permettant aux parties prenantes de comprendre comment fonctionnent ces modèles, en s'assurant qu'elles comprennent comment ces modèles prennent réellement des décisions et en garantissant la transparence des systèmes d'IA, la confiance et la responsabilité pour résoudre ce problème. Cet article explore diverses techniques d'intelligence artificielle explicable (XAI) pour illustrer leurs principes sous-jacents. Plusieurs raisons pour lesquelles l’IA explicable est cruciale Confiance et transparence : pour que les systèmes d’IA soient largement acceptés et fiables, les utilisateurs doivent comprendre comment les décisions sont prises

L'apprentissage automatique est une branche importante de l'intelligence artificielle qui donne aux ordinateurs la possibilité d'apprendre à partir de données et d'améliorer leurs capacités sans être explicitement programmés. L'apprentissage automatique a un large éventail d'applications dans divers domaines, de la reconnaissance d'images et du traitement du langage naturel aux systèmes de recommandation et à la détection des fraudes, et il change notre façon de vivre. Il existe de nombreuses méthodes et théories différentes dans le domaine de l'apprentissage automatique, parmi lesquelles les cinq méthodes les plus influentes sont appelées les « Cinq écoles d'apprentissage automatique ». Les cinq grandes écoles sont l’école symbolique, l’école connexionniste, l’école évolutionniste, l’école bayésienne et l’école analogique. 1. Le symbolisme, également connu sous le nom de symbolisme, met l'accent sur l'utilisation de symboles pour le raisonnement logique et l'expression des connaissances. Cette école de pensée estime que l'apprentissage est un processus de déduction inversée, à travers les connaissances existantes.

Alors que l'invasion du Jour J approche de son 80e anniversaire, un mois entier d'événements et d'offres spéciales de World of Tanks seront centrés sur l'Opération Overlord - un nouveau mode PvE, une passe de combat thématique, la sortie d'un nouveau mode Frontline et un mois de long Le magasin de jetons Opération Normandie est sur le point d'ouvrir. CARTE DE L'OPÉRATION Du 3 au 30 juin, explorez les plages de Normandie et collectez jusqu'à 90 jetons Opération Normandie : 36 de cette carte et 54 autres en accomplissant des tâches quotidiennes. Consultez la carte interactive et consultez les dates de début de chaque événement, puis commencez à gagner des jetons maintenant ou débloquez des quêtes spéciales de jetons. Utilisez la carte pour en savoir plus sur les activités liées à l'Opération Normandie. Après avoir obtenu suffisamment de jetons Opération Normandie, vous pouvez vous rendre chez le revendeur de jetons Opération Normandie.

MetaFAIR s'est associé à Harvard pour fournir un nouveau cadre de recherche permettant d'optimiser le biais de données généré lors de l'apprentissage automatique à grande échelle. On sait que la formation de grands modèles de langage prend souvent des mois et utilise des centaines, voire des milliers de GPU. En prenant comme exemple le modèle LLaMA270B, sa formation nécessite un total de 1 720 320 heures GPU. La formation de grands modèles présente des défis systémiques uniques en raison de l’ampleur et de la complexité de ces charges de travail. Récemment, de nombreuses institutions ont signalé une instabilité dans le processus de formation lors de la formation des modèles d'IA générative SOTA. Elles apparaissent généralement sous la forme de pics de pertes. Par exemple, le modèle PaLM de Google a connu jusqu'à 20 pics de pertes au cours du processus de formation. Le biais numérique est à l'origine de cette imprécision de la formation,
