Comment parvenir à un apprentissage continu et faire en sorte que l’IA s’améliore continuellement ?
Récemment, Christopher Kanan, un informaticien de 41 ans de l'Université de Rochester, a déclaré dans une interview exclusive qu'il construisait des algorithmes qui permettent à l'IA d'apprendre continuellement au fil du temps - tout comme nous, les humains.
Comme nous le savons tous, l'IA peut très bien accomplir des tâches « dans le cadre de l'examen » après la formation, mais ces algorithmes ne peuvent pas continuellement mettre à jour la base de connaissances avec de nouvelles informations comme les humains.
Pour apprendre ne serait-ce qu'une nouvelle chose, l'algorithme doit être entraîné à partir de zéro, au prix d'oublier presque tout ce qu'il a appris auparavant. Le problème que cela pose est « l’oubli catastrophique ». Tout comme lorsque vous rencontrez une nouvelle amie, la seule façon d’apprendre son nom est de redémarrer votre cerveau.
La raison pour laquelle cela se produit est due à la façon dont les réseaux de neurones apprennent de nouvelles choses. L’apprentissage de ces algorithmes nécessite de modifier la force des connexions entre les neurones. Cependant, cela représente également un savoir passé, donc trop modifier les connexions conduira à l’oubli.
Les réseaux de neurones biologiques ont développé des stratégies sur des centaines de millions d'années pour garantir la stabilité des informations importantes. Mais les réseaux de neurones artificiels d’aujourd’hui ont du mal à trouver un bon équilibre entre les anciennes et les nouvelles connaissances. À mesure que les réseaux voient de nouvelles données, leurs connexions peuvent facilement être écrasées, ce qui peut conduire à une incapacité soudaine et grave à reconnaître les informations passées.
Ce que la philosophie vous enseigne, c'est « Comment présenter des arguments raisonnables » et « Comment analyser les arguments des autres ? »
Mon laboratoire s'inspire de cette question : Si nous ne pouvons pas faire X, comment pouvons-nous faire Y ? ?
Nous apprendrons au fil du temps, mais pas le réseau de neurones, sa quantité de connaissances est fixe. Donc, si les humains veulent créer une intelligence artificielle générale à l’avenir, c’est un problème fondamental qui doit être résolu.
Notes de recherche de Kanan
La méthode la plus efficace à l'heure actuelle est appelée replay, qui permet de stocker les connaissances passées, puis de les rejouer avec un nouvel ensemble de données pendant le processus de formation, afin que les informations d'origine ne soient pas perdues.
Cette méthode s’inspire du processus de consolidation de la mémoire (Memory Consolidation) dans notre cerveau. Pendant le sommeil, le contenu d’un apprentissage d’une journée est réencodé et rejoué au fur et à mesure de l’activation des neurones.
En d’autres termes, un nouvel apprentissage ne peut pas éradiquer complètement les connaissances passées de l’algorithme.
Il existe trois façons d’y parvenir.
Ici, le réseau de neurones artificiels génère en fait une version synthétique de l'expérience passée, puis mélange cet exemple synthétique avec de nouveaux exemples. Mon laboratoire se concentre sur les deux dernières approches.
Pas exactement. Je pense que le problème ouvert dans le domaine de la formation continue n’est pas celui de l’oubli catastrophique.
Ce qui m'intéresse vraiment, c'est :
Comment les apprentissages passés peuvent-ils rendre les apprentissages futurs plus efficaces ? Comment les apprentissages futurs corrigent-ils les apprentissages passés ? Ce sont des choses que très peu de gens mesurent, et je pense que cela est un élément clé pour faire avancer le domaine, car en réalité, il ne s'agit pas seulement d'oublier quelque chose, il s'agit de devenir un meilleur apprenant.
Christopher Kanan a dit :
Il se passe certainement bien plus de choses dans nos têtes que les réseaux de neurones modernes. Nous devons mettre en place les bonnes configurations expérimentales et algorithmiques pour mesurer si l’apprentissage passé contribue à l’apprentissage futur. Et le plus gros problème à l'heure actuelle est que nous ne disposons pas de bons ensembles de données pour étudier l'apprentissage continu. Nous prenons essentiellement les ensembles de données existants utilisés dans l'apprentissage automatique traditionnel et les développons à partir de zéro.
De manière générale, le fonctionnement normal de l'apprentissage automatique est que nous avons un ensemble de formation et un ensemble de test - nous nous entraînons sur l'ensemble de formation et testons sur l'ensemble de test.
Mais l'apprentissage continu brise ces règles. Il permet à l'ensemble de formation de se développer au fur et à mesure que le formateur apprend, nous avons donc besoin d'un très bon environnement d'apprentissage continu.
Il est plus facile de vous dire ce que ce n’est pas que ce que c’est.
Je peux vous indiquer les propriétés qu'il peut avoir. Donc pour l'instant, supposons que l'algorithme d'IA n'est pas une intelligence incarnée dans la simulation. Et puis au moins, idéalement, nous apprenons de la vidéo, ou quelque chose comme ça, comme un flux vidéo multimodal, et voulons faire plus que simplement classer des images statiques.
Il y a beaucoup de questions ouvertes à ce sujet. J'étais à un atelier d'apprentissage continu il y a quelques années, et certaines personnes comme moi ont dit : « Nous devons arrêter d'utiliser un ensemble de données appelé MNIST, c'est trop simple. Et puis quelqu'un a dit : « Eh bien, alors nous allons passer à l'incrémental ». apprendre dans StarCraft
Je fais cela maintenant pour diverses raisons, mais je ne pense pas que ce soit suffisant pour vraiment résoudre le problème. Après tout, il y a bien plus dans la vie que d’apprendre à jouer à StarCraft.
Mon ancien élève Tyler Hayes et moi avons lancé une étude d'apprentissage continu sur le raisonnement analogique. Cet article a également été publié dans CVPR 2021.
Lien papier : https://openaccess.thecvf.com/content/CVPR2021W/CLVision/html/Hayes_Selective_Replay_Enhances_Learning_in_Online_Continual_Analogical_Reasoning_CVPRW_2021_paper.html
Nous pensons que ce sera un bon moyen d'étudier le concept de transfert Domaine d'apprentissage parce que nous Plus des compétences sophistiquées sont désormais nécessaires pour résoudre des problèmes plus complexes.
Plus précisément, nous avons mesuré les données sur le transfert vers l'arrière, c'est-à-dire la quantité d'apprentissage passé qui vous aidera à l'avenir, et vice versa.
Nous avons trouvé de bonnes preuves de transfert, bien plus importantes que de simples tâches comme la reconnaissance d'objets.
Je pense qu’ils le feront. De nombreuses personnes extrêmement talentueuses travaillent à cet objectif dans ce domaine.
Mais ce dont nous avons besoin, c'est de créativité. De nombreuses études dans la communauté de l’apprentissage automatique sont basées sur des recherches antérieures et apportent quelques petites améliorations, et il n’existe pas beaucoup d’études véritablement transformatrices.
Mais ce jour viendra certainement, ce n’est qu’une question de temps.
Christopher Kanan est professeur agrégé titulaire d'informatique à l'Université de Rochester. L'orientation principale du travail est la recherche fondamentale sur l'apprentissage profond, y compris l'apprentissage continu, les biais en matière d'intelligence artificielle, la vision médicale par ordinateur et la compréhension de scènes guidée par le langage.
Kanan a travaillé dans l'apprentissage continu en ligne, la réponse visuelle aux questions, la pathologie informatique, la segmentation sémantique, la reconnaissance d'objets, la détection d'objets, la vision active, le suivi d'objets, etc. En plus de l'apprentissage automatique, il possède une solide expérience en suivi oculaire, en vision des primates et en neurosciences théoriques.
Avant cela, il était professeur agrégé titulaire au Carlson Center for Imaging Sciences du Rochester Institute of Technology (RIT). Au cours de son mandat, il a cofondé le Center for Human Conscious Artificial Intelligence (CHAI) avec ses collègues et en a été directeur adjoint pendant quatre ans. En outre, Kanan était professeur associé invité à l'Université de technologie de Cornell, enseignant des cours d'apprentissage profond à environ 100 étudiants diplômés chaque année pendant 4 ans.
Christopher Kanan a grandi dans une petite ville de la campagne de l'Oklahoma.
En 1996, il a commencé à explorer l'intelligence artificielle alors qu'il était encore au lycée, Kanan a créé de nombreux « robots » pour jouer à des jeux informatiques multijoueurs en ligne.
En 2002, Kanan a été admis à l'Oklahoma State University (OSU), avec une spécialisation en philosophie et en informatique, et a obtenu son baccalauréat en 2004.
En 2006, j'ai obtenu une maîtrise en informatique de l'Université de Californie du Sud (USC), axée sur l'intelligence artificielle et les neurosciences, et en collaboration avec Michael Arbib, un pionnier des neurosciences computationnelles et des réseaux de neurones. En 2013, il a obtenu son doctorat en informatique de l'Université de Californie à San Diego (UCSD). Après avoir obtenu son diplôme, Kanan est allé au California Institute of Technology pour entreprendre des recherches postdoctorales.
Référence : https://www.quantamagazine.org/the-computer-scientist-trying-to-teach-ai-to-learn-like-we-do-20220802/
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!