Maison Périphériques technologiques IA Pourquoi l'autosurveillance est-elle efficace ? La thèse de doctorat de Princeton de 243 pages « Comprendre l'apprentissage par représentation auto-supervisé » explique de manière exhaustive les trois types de méthodes : l'apprentissage contrastif, la modélisation du langage et l'auto-prédiction.

Pourquoi l'autosurveillance est-elle efficace ? La thèse de doctorat de Princeton de 243 pages « Comprendre l'apprentissage par représentation auto-supervisé » explique de manière exhaustive les trois types de méthodes : l'apprentissage contrastif, la modélisation du langage et l'auto-prédiction.

Apr 15, 2023 am 08:13 AM
模型 深度学习

La pré-formation est apparue comme un paradigme alternatif et efficace pour surmonter ces lacunes, dans lequel les modèles sont d'abord formés à l'aide de données facilement disponibles, puis utilisés pour résoudre des tâches d'intérêt en aval, avec beaucoup moins de données étiquetées que l'apprentissage supervisé.

L'utilisation de données non étiquetées pour la pré-formation, c'est-à-dire l'apprentissage auto-supervisé, est particulièrement révolutionnaire et a fait ses preuves dans différents domaines : texte, vision, parole, etc.

Cela soulève une question intéressante et stimulante : Pourquoi la pré-formation sur des données non étiquetées devrait-elle aider à des tâches en aval apparemment sans rapport ? Adresse papier : https://dataspace.princeton ? .edu/handle/88435/dsp01t435gh21h

Pourquoi lautosurveillance est-elle efficace ? La thèse de doctorat de Princeton de 243 pages « Comprendre lapprentissage par représentation auto-supervisé » explique de manière exhaustive les trois types de méthodes : lapprentissage contrastif, la modélisation du langage et lauto-prédiction.Cet article présente quelques travaux, propose et établit un cadre théorique pour étudier pourquoi l'apprentissage auto-supervisé est bénéfique pour les tâches en aval.

Ce cadre convient à l'apprentissage contrastif, à la modélisation autorégressive du langage et aux méthodes basées sur l'auto-prédiction. L'idée centrale de ce cadre est que la pré-formation aide à apprendre une représentation de faible dimension des données, qui aide ensuite à résoudre les tâches d'intérêt en aval avec des classificateurs linéaires, nécessitant moins de données étiquetées.

Un sujet courant est la formalisation des propriétés idéales des distributions de données non étiquetées pour la création de tâches d'apprentissage auto-supervisées. Avec une formalisation appropriée, il peut être montré qu'en minimisant approximativement l'objectif de pré-entraînement correct, on peut extraire des signaux en aval implicitement codés dans des distributions de données non étiquetées.

Enfin, nous montrons que ce signal peut être décodé à partir de la représentation apprise à l'aide d'un classificateur linéaire, fournissant ainsi une formalisation pour le transfert de « compétences et connaissances » entre les tâches.

INTRODUCTION

Les domaines de l'apprentissage automatique et de l'intelligence artificielle ont fait d'énormes progrès au cours de la dernière décennie dans la quête de conception d'agents et de solutions aux problèmes basées sur les données. Avec le succès initial sur des benchmarks d'apprentissage supervisé exigeants tels qu'ImageNet [Deng et al., 2009], les innovations en matière d'apprentissage profond ont ensuite conduit à des modèles dotés de performances surhumaines sur de nombreux benchmarks de ce type dans différents domaines. La formation de tels modèles spécifiques à des tâches est certainement impressionnante et présente une énorme valeur pratique. Cependant, il présente une limite importante dans la mesure où il nécessite de grands ensembles de données étiquetés ou annotés, ce qui est souvent coûteux. De plus, du point de vue de l'intelligence, on espère avoir des modèles plus généraux qui, comme les humains [Ahn et Brewer, 1993], peuvent apprendre des expériences antérieures, les résumer en compétences ou concepts et utiliser ces compétences ou concepts pour résoudre de nouvelles tâches avec peu ou pas de démonstration. Après tout, les bébés apprennent beaucoup grâce à l’observation et à l’interaction sans supervision explicite. Ces limitations ont inspiré un paradigme alternatif pour la pré-formation.

Pourquoi lautosurveillance est-elle efficace ? La thèse de doctorat de Princeton de 243 pages « Comprendre lapprentissage par représentation auto-supervisé » explique de manière exhaustive les trois types de méthodes : lapprentissage contrastif, la modélisation du langage et lauto-prédiction.

Cet article se concentre sur la pré-formation en utilisant les quantités souvent importantes de données non étiquetées disponibles. L’idée d’utiliser des données non étiquetées est depuis longtemps un point d’intérêt en apprentissage automatique, notamment à travers l’apprentissage non supervisé et semi-supervisé. Une adaptation moderne de celui-ci utilisant l'apprentissage profond est souvent appelée apprentissage auto-supervisé (SSL) et a commencé à changer le paysage de l'apprentissage automatique et de l'intelligence artificielle grâce à des idées telles que l'apprentissage contrastif et la modélisation du langage. L'idée de l'apprentissage auto-supervisé est de construire certaines tâches en utilisant uniquement des données non étiquetées et d'entraîner le modèle à bien fonctionner sur les tâches construites. De telles tâches nécessitent généralement que les modèles codent les propriétés structurelles des données en prédisant les parties (ou propriétés) non observées ou cachées de l'entrée à partir des parties observées ou retenues [LeCun et Misra, 2021]. L'apprentissage auto-supervisé a montré sa généralité et son utilité sur de nombreuses tâches d'intérêt en aval, souvent avec une meilleure efficacité d'échantillonnage que la résolution de tâches à partir de zéro, nous rapprochant ainsi de l'objectif des agents à usage général. En effet, récemment, de grands modèles de langage comme GPT-3 [Brown et al., 2020] ont démontré un « comportement émergent » fascinant qui se produit à grande échelle, suscitant davantage d'intérêt pour l'idée de pré-entraînement auto-supervisé.

Bien que l’apprentissage auto-supervisé ait connu un succès empirique et continue de se montrer très prometteur, au-delà d’une intuition approximative, une bonne compréhension théorique de son fonctionnement fait encore défaut. Ces succès impressionnants soulèvent des questions intéressantes car on ne sait pas a priori pourquoi un modèle formé sur une tâche devrait aider sur une autre tâche apparemment sans rapport, c'est-à-dire pourquoi une formation sur la tâche a devrait aider la tâche b. Même si une compréhension théorique complète du SSL (et de l’apprentissage profond en général) est difficile et insaisissable, comprendre ce phénomène à n’importe quel niveau d’abstraction peut aider à développer des algorithmes plus fondés sur des principes. La motivation de recherche de cet article est la suivante :

Pourquoi la formation sur des tâches d'apprentissage auto-supervisées (utilisant de grandes quantités de données non étiquetées) aide à résoudre des tâches en aval manquant de données. Comment formaliser le transfert de « connaissances et compétences » ?

Bien qu'il existe une abondante littérature sur l'apprentissage supervisé, la généralisation à partir d'une tâche SSL → tâche en aval est fondamentalement différente de la généralisation à partir d'un ensemble de formation → un ensemble de tests dans l'apprentissage supervisé. Pour l'apprentissage supervisé pour les tâches de classification en aval, par exemple, un modèle formé sur un ensemble d'entraînement de paires entrée-étiquette échantillonnées à partir d'une distribution inconnue peut être directement utilisé pour une évaluation sur un ensemble de tests invisible échantillonné à partir de la même distribution. Cette distribution de base établit la connexion entre l'ensemble d'entraînement et l'ensemble de test. Cependant, la connexion conceptuelle entre la tâche SSL et la tâche en aval est moins claire car les données non étiquetées utilisées dans la tâche SSL n'ont aucun signal clair sur les étiquettes en aval. Cela signifie qu'un modèle pré-entraîné sur une tâche SSL (par exemple, prédire une partie de l'entrée à partir du reste) ne peut pas être directement utilisé sur des tâches en aval (par exemple, prédire une étiquette de classe à partir de l'entrée). Ainsi, le transfert de « connaissances et compétences » nécessite une étape de formation supplémentaire utilisant certaines données labellisées, idéalement inférieure à ce qui est requis pour un apprentissage supervisé à partir de zéro. Toute compréhension théorique de la tâche SSL → généralisation des tâches en aval doit répondre à ces questions : « Quel est le rôle intrinsèque des données non étiquetées ? et « Comment utiliser des modèles pré-entraînés pour les tâches en aval ? » Cet article cible les tâches de classification en aval, en Faites des hypothèses de distribution sur des données non étiquetées et utilisez l'idée d'apprentissage de la représentation pour étudier ces problèmes :

(a) (hypothèse de distribution) La distribution de données non étiquetées contient implicitement des informations sur la tâche de classification en aval qui vous intéresse.

(b) (Apprentissage par représentation) Un modèle pré-entraîné sur une tâche SSL appropriée peut coder ce signal via des représentations apprises, qui peuvent ensuite être utilisées pour résoudre des tâches de classification en aval avec des classificateurs linéaires.

Le point (a) montre que certaines propriétés structurelles qui ne sont pas étiquetées nous fournissent implicitement des indications sur les tâches ultérieures en aval, et l'apprentissage auto-supervisé peut aider à extraire ce signal des données. Le point (b) propose un moyen simple et empiriquement efficace d’utiliser des modèles pré-entraînés, en tirant parti des représentations apprises du modèle. Cet article identifie et quantifie mathématiquement les propriétés distributionnelles des données non étiquetées, démontrant que de bonnes représentations peuvent être apprises pour différentes méthodes SSL telles que l'apprentissage contrastif, la modélisation du langage et l'auto-prédiction. Dans la section suivante, nous approfondissons l'idée de l'apprentissage par représentation et expliquons formellement pourquoi l'apprentissage auto-supervisé aide les tâches en aval.

Pourquoi lautosurveillance est-elle efficace ? La thèse de doctorat de Princeton de 243 pages « Comprendre lapprentissage par représentation auto-supervisé » explique de manière exhaustive les trois types de méthodes : lapprentissage contrastif, la modélisation du langage et lauto-prédiction.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Comment réparer l'audio si vous n'entendez personne
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Comment déverrouiller tout dans Myrise
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Le modèle MoE open source le plus puissant au monde est ici, avec des capacités chinoises comparables à celles du GPT-4, et le prix ne représente que près d'un pour cent de celui du GPT-4-Turbo. Le modèle MoE open source le plus puissant au monde est ici, avec des capacités chinoises comparables à celles du GPT-4, et le prix ne représente que près d'un pour cent de celui du GPT-4-Turbo. May 07, 2024 pm 04:13 PM

Imaginez un modèle d'intelligence artificielle qui non seulement a la capacité de surpasser l'informatique traditionnelle, mais qui permet également d'obtenir des performances plus efficaces à moindre coût. Ce n'est pas de la science-fiction, DeepSeek-V2[1], le modèle MoE open source le plus puissant au monde est ici. DeepSeek-V2 est un puissant mélange de modèle de langage d'experts (MoE) présentant les caractéristiques d'une formation économique et d'une inférence efficace. Il est constitué de 236B paramètres, dont 21B servent à activer chaque marqueur. Par rapport à DeepSeek67B, DeepSeek-V2 offre des performances plus élevées, tout en économisant 42,5 % des coûts de formation, en réduisant le cache KV de 93,3 % et en augmentant le débit de génération maximal à 5,76 fois. DeepSeek est une entreprise explorant l'intelligence artificielle générale

L'IA bouleverse la recherche mathématique ! Le lauréat de la médaille Fields et mathématicien sino-américain a dirigé 11 articles les mieux classés | Aimé par Terence Tao L'IA bouleverse la recherche mathématique ! Le lauréat de la médaille Fields et mathématicien sino-américain a dirigé 11 articles les mieux classés | Aimé par Terence Tao Apr 09, 2024 am 11:52 AM

L’IA change effectivement les mathématiques. Récemment, Tao Zhexuan, qui a prêté une attention particulière à cette question, a transmis le dernier numéro du « Bulletin de l'American Mathematical Society » (Bulletin de l'American Mathematical Society). En se concentrant sur le thème « Les machines changeront-elles les mathématiques ? », de nombreux mathématiciens ont exprimé leurs opinions. L'ensemble du processus a été plein d'étincelles, intense et passionnant. L'auteur dispose d'une équipe solide, comprenant Akshay Venkatesh, lauréat de la médaille Fields, le mathématicien chinois Zheng Lejun, l'informaticien de l'Université de New York Ernest Davis et de nombreux autres universitaires bien connus du secteur. Le monde de l’IA a radicalement changé. Vous savez, bon nombre de ces articles ont été soumis il y a un an.

Au-delà d'ORB-SLAM3 ! SL-SLAM : les scènes de faible luminosité, de gigue importante et de texture faible sont toutes gérées Au-delà d'ORB-SLAM3 ! SL-SLAM : les scènes de faible luminosité, de gigue importante et de texture faible sont toutes gérées May 30, 2024 am 09:35 AM

Écrit précédemment, nous discutons aujourd'hui de la manière dont la technologie d'apprentissage profond peut améliorer les performances du SLAM (localisation et cartographie simultanées) basé sur la vision dans des environnements complexes. En combinant des méthodes d'extraction de caractéristiques approfondies et de correspondance de profondeur, nous introduisons ici un système SLAM visuel hybride polyvalent conçu pour améliorer l'adaptation dans des scénarios difficiles tels que des conditions de faible luminosité, un éclairage dynamique, des zones faiblement texturées et une gigue importante. Notre système prend en charge plusieurs modes, notamment les configurations étendues monoculaire, stéréo, monoculaire-inertielle et stéréo-inertielle. En outre, il analyse également comment combiner le SLAM visuel avec des méthodes d’apprentissage profond pour inspirer d’autres recherches. Grâce à des expériences approfondies sur des ensembles de données publiques et des données auto-échantillonnées, nous démontrons la supériorité du SL-SLAM en termes de précision de positionnement et de robustesse du suivi.

Bonjour, Atlas électrique ! Le robot Boston Dynamics revient à la vie, des mouvements étranges à 180 degrés effraient Musk Bonjour, Atlas électrique ! Le robot Boston Dynamics revient à la vie, des mouvements étranges à 180 degrés effraient Musk Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas entre officiellement dans l’ère des robots électriques ! Hier, l'Atlas hydraulique s'est retiré "en larmes" de la scène de l'histoire. Aujourd'hui, Boston Dynamics a annoncé que l'Atlas électrique était au travail. Il semble que dans le domaine des robots humanoïdes commerciaux, Boston Dynamics soit déterminé à concurrencer Tesla. Après la sortie de la nouvelle vidéo, elle a déjà été visionnée par plus d’un million de personnes en seulement dix heures. Les personnes âgées partent et de nouveaux rôles apparaissent. C'est une nécessité historique. Il ne fait aucun doute que cette année est l’année explosive des robots humanoïdes. Les internautes ont commenté : Les progrès des robots ont fait ressembler la cérémonie d'ouverture de cette année à des êtres humains, et le degré de liberté est bien plus grand que celui des humains. Mais n'est-ce vraiment pas un film d'horreur ? Au début de la vidéo, Atlas est allongé calmement sur le sol, apparemment sur le dos. Ce qui suit est à couper le souffle

KAN, qui remplace MLP, a été étendu à la convolution par des projets open source KAN, qui remplace MLP, a été étendu à la convolution par des projets open source Jun 01, 2024 pm 10:03 PM

Plus tôt ce mois-ci, des chercheurs du MIT et d'autres institutions ont proposé une alternative très prometteuse au MLP – KAN. KAN surpasse MLP en termes de précision et d’interprétabilité. Et il peut surpasser le MLP fonctionnant avec un plus grand nombre de paramètres avec un très petit nombre de paramètres. Par exemple, les auteurs ont déclaré avoir utilisé KAN pour reproduire les résultats de DeepMind avec un réseau plus petit et un degré d'automatisation plus élevé. Plus précisément, le MLP de DeepMind compte environ 300 000 paramètres, tandis que le KAN n'en compte qu'environ 200. KAN a une base mathématique solide comme MLP est basé sur le théorème d'approximation universelle, tandis que KAN est basé sur le théorème de représentation de Kolmogorov-Arnold. Comme le montre la figure ci-dessous, KAN a

Google est ravi : les performances de JAX surpassent Pytorch et TensorFlow ! Cela pourrait devenir le choix le plus rapide pour la formation à l'inférence GPU Google est ravi : les performances de JAX surpassent Pytorch et TensorFlow ! Cela pourrait devenir le choix le plus rapide pour la formation à l'inférence GPU Apr 01, 2024 pm 07:46 PM

Les performances de JAX, promu par Google, ont dépassé celles de Pytorch et TensorFlow lors de récents tests de référence, se classant au premier rang sur 7 indicateurs. Et le test n’a pas été fait sur le TPU présentant les meilleures performances JAX. Bien que parmi les développeurs, Pytorch soit toujours plus populaire que Tensorflow. Mais à l’avenir, des modèles plus volumineux seront peut-être formés et exécutés sur la base de la plate-forme JAX. Modèles Récemment, l'équipe Keras a comparé trois backends (TensorFlow, JAX, PyTorch) avec l'implémentation native de PyTorch et Keras2 avec TensorFlow. Premièrement, ils sélectionnent un ensemble de

Les robots Tesla travaillent dans les usines, Musk : Le degré de liberté des mains atteindra 22 cette année ! Les robots Tesla travaillent dans les usines, Musk : Le degré de liberté des mains atteindra 22 cette année ! May 06, 2024 pm 04:13 PM

La dernière vidéo du robot Optimus de Tesla est sortie, et il peut déjà fonctionner en usine. À vitesse normale, il trie les batteries (les batteries 4680 de Tesla) comme ceci : Le responsable a également publié à quoi cela ressemble à une vitesse 20 fois supérieure - sur un petit "poste de travail", en sélectionnant et en sélectionnant et en sélectionnant : Cette fois, il est publié L'un des points forts de la vidéo est qu'Optimus réalise ce travail en usine, de manière totalement autonome, sans intervention humaine tout au long du processus. Et du point de vue d'Optimus, il peut également récupérer et placer la batterie tordue, en se concentrant sur la correction automatique des erreurs : concernant la main d'Optimus, le scientifique de NVIDIA Jim Fan a donné une évaluation élevée : la main d'Optimus est l'un des robots à cinq doigts du monde. le plus adroit. Ses mains ne sont pas seulement tactiles

FisheyeDetNet : le premier algorithme de détection de cible basé sur une caméra fisheye FisheyeDetNet : le premier algorithme de détection de cible basé sur une caméra fisheye Apr 26, 2024 am 11:37 AM

La détection de cibles est un problème relativement mature dans les systèmes de conduite autonome, parmi lesquels la détection des piétons est l'un des premiers algorithmes à être déployés. Des recherches très complètes ont été menées dans la plupart des articles. Cependant, la perception de la distance à l’aide de caméras fisheye pour une vue panoramique est relativement moins étudiée. En raison de la distorsion radiale importante, la représentation standard du cadre de délimitation est difficile à mettre en œuvre dans les caméras fisheye. Pour alléger la description ci-dessus, nous explorons les conceptions étendues de boîtes englobantes, d'ellipses et de polygones généraux dans des représentations polaires/angulaires et définissons une métrique de segmentation d'instance mIOU pour analyser ces représentations. Le modèle fisheyeDetNet proposé avec une forme polygonale surpasse les autres modèles et atteint simultanément 49,5 % de mAP sur l'ensemble de données de la caméra fisheye Valeo pour la conduite autonome.

See all articles