


Pourquoi l'autosurveillance est-elle efficace ? La thèse de doctorat de Princeton de 243 pages « Comprendre l'apprentissage par représentation auto-supervisé » explique de manière exhaustive les trois types de méthodes : l'apprentissage contrastif, la modélisation du langage et l'auto-prédiction.
La pré-formation est apparue comme un paradigme alternatif et efficace pour surmonter ces lacunes, dans lequel les modèles sont d'abord formés à l'aide de données facilement disponibles, puis utilisés pour résoudre des tâches d'intérêt en aval, avec beaucoup moins de données étiquetées que l'apprentissage supervisé.
L'utilisation de données non étiquetées pour la pré-formation, c'est-à-dire l'apprentissage auto-supervisé, est particulièrement révolutionnaire et a fait ses preuves dans différents domaines : texte, vision, parole, etc.
Cela soulève une question intéressante et stimulante : Pourquoi la pré-formation sur des données non étiquetées devrait-elle aider à des tâches en aval apparemment sans rapport ? Adresse papier : https://dataspace.princeton ? .edu/handle/88435/dsp01t435gh21h
Cet article présente quelques travaux, propose et établit un cadre théorique pour étudier pourquoi l'apprentissage auto-supervisé est bénéfique pour les tâches en aval.
Ce cadre convient à l'apprentissage contrastif, à la modélisation autorégressive du langage et aux méthodes basées sur l'auto-prédiction. L'idée centrale de ce cadre est que la pré-formation aide à apprendre une représentation de faible dimension des données, qui aide ensuite à résoudre les tâches d'intérêt en aval avec des classificateurs linéaires, nécessitant moins de données étiquetées.
Un sujet courant est la formalisation des propriétés idéales des distributions de données non étiquetées pour la création de tâches d'apprentissage auto-supervisées. Avec une formalisation appropriée, il peut être montré qu'en minimisant approximativement l'objectif de pré-entraînement correct, on peut extraire des signaux en aval implicitement codés dans des distributions de données non étiquetées.
Enfin, nous montrons que ce signal peut être décodé à partir de la représentation apprise à l'aide d'un classificateur linéaire, fournissant ainsi une formalisation pour le transfert de « compétences et connaissances » entre les tâches.
INTRODUCTION
Les domaines de l'apprentissage automatique et de l'intelligence artificielle ont fait d'énormes progrès au cours de la dernière décennie dans la quête de conception d'agents et de solutions aux problèmes basées sur les données. Avec le succès initial sur des benchmarks d'apprentissage supervisé exigeants tels qu'ImageNet [Deng et al., 2009], les innovations en matière d'apprentissage profond ont ensuite conduit à des modèles dotés de performances surhumaines sur de nombreux benchmarks de ce type dans différents domaines. La formation de tels modèles spécifiques à des tâches est certainement impressionnante et présente une énorme valeur pratique. Cependant, il présente une limite importante dans la mesure où il nécessite de grands ensembles de données étiquetés ou annotés, ce qui est souvent coûteux. De plus, du point de vue de l'intelligence, on espère avoir des modèles plus généraux qui, comme les humains [Ahn et Brewer, 1993], peuvent apprendre des expériences antérieures, les résumer en compétences ou concepts et utiliser ces compétences ou concepts pour résoudre de nouvelles tâches avec peu ou pas de démonstration. Après tout, les bébés apprennent beaucoup grâce à l’observation et à l’interaction sans supervision explicite. Ces limitations ont inspiré un paradigme alternatif pour la pré-formation.
Bien que l’apprentissage auto-supervisé ait connu un succès empirique et continue de se montrer très prometteur, au-delà d’une intuition approximative, une bonne compréhension théorique de son fonctionnement fait encore défaut. Ces succès impressionnants soulèvent des questions intéressantes car on ne sait pas a priori pourquoi un modèle formé sur une tâche devrait aider sur une autre tâche apparemment sans rapport, c'est-à-dire pourquoi une formation sur la tâche a devrait aider la tâche b. Même si une compréhension théorique complète du SSL (et de l’apprentissage profond en général) est difficile et insaisissable, comprendre ce phénomène à n’importe quel niveau d’abstraction peut aider à développer des algorithmes plus fondés sur des principes. La motivation de recherche de cet article est la suivante :
Pourquoi la formation sur des tâches d'apprentissage auto-supervisées (utilisant de grandes quantités de données non étiquetées) aide à résoudre des tâches en aval manquant de données. Comment formaliser le transfert de « connaissances et compétences » ?
Bien qu'il existe une abondante littérature sur l'apprentissage supervisé, la généralisation à partir d'une tâche SSL → tâche en aval est fondamentalement différente de la généralisation à partir d'un ensemble de formation → un ensemble de tests dans l'apprentissage supervisé. Pour l'apprentissage supervisé pour les tâches de classification en aval, par exemple, un modèle formé sur un ensemble d'entraînement de paires entrée-étiquette échantillonnées à partir d'une distribution inconnue peut être directement utilisé pour une évaluation sur un ensemble de tests invisible échantillonné à partir de la même distribution. Cette distribution de base établit la connexion entre l'ensemble d'entraînement et l'ensemble de test. Cependant, la connexion conceptuelle entre la tâche SSL et la tâche en aval est moins claire car les données non étiquetées utilisées dans la tâche SSL n'ont aucun signal clair sur les étiquettes en aval. Cela signifie qu'un modèle pré-entraîné sur une tâche SSL (par exemple, prédire une partie de l'entrée à partir du reste) ne peut pas être directement utilisé sur des tâches en aval (par exemple, prédire une étiquette de classe à partir de l'entrée). Ainsi, le transfert de « connaissances et compétences » nécessite une étape de formation supplémentaire utilisant certaines données labellisées, idéalement inférieure à ce qui est requis pour un apprentissage supervisé à partir de zéro. Toute compréhension théorique de la tâche SSL → généralisation des tâches en aval doit répondre à ces questions : « Quel est le rôle intrinsèque des données non étiquetées ? et « Comment utiliser des modèles pré-entraînés pour les tâches en aval ? » Cet article cible les tâches de classification en aval, en Faites des hypothèses de distribution sur des données non étiquetées et utilisez l'idée d'apprentissage de la représentation pour étudier ces problèmes :
(a) (hypothèse de distribution) La distribution de données non étiquetées contient implicitement des informations sur la tâche de classification en aval qui vous intéresse.
(b) (Apprentissage par représentation) Un modèle pré-entraîné sur une tâche SSL appropriée peut coder ce signal via des représentations apprises, qui peuvent ensuite être utilisées pour résoudre des tâches de classification en aval avec des classificateurs linéaires.
Le point (a) montre que certaines propriétés structurelles qui ne sont pas étiquetées nous fournissent implicitement des indications sur les tâches ultérieures en aval, et l'apprentissage auto-supervisé peut aider à extraire ce signal des données. Le point (b) propose un moyen simple et empiriquement efficace d’utiliser des modèles pré-entraînés, en tirant parti des représentations apprises du modèle. Cet article identifie et quantifie mathématiquement les propriétés distributionnelles des données non étiquetées, démontrant que de bonnes représentations peuvent être apprises pour différentes méthodes SSL telles que l'apprentissage contrastif, la modélisation du langage et l'auto-prédiction. Dans la section suivante, nous approfondissons l'idée de l'apprentissage par représentation et expliquons formellement pourquoi l'apprentissage auto-supervisé aide les tâches en aval.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Imaginez un modèle d'intelligence artificielle qui non seulement a la capacité de surpasser l'informatique traditionnelle, mais qui permet également d'obtenir des performances plus efficaces à moindre coût. Ce n'est pas de la science-fiction, DeepSeek-V2[1], le modèle MoE open source le plus puissant au monde est ici. DeepSeek-V2 est un puissant mélange de modèle de langage d'experts (MoE) présentant les caractéristiques d'une formation économique et d'une inférence efficace. Il est constitué de 236B paramètres, dont 21B servent à activer chaque marqueur. Par rapport à DeepSeek67B, DeepSeek-V2 offre des performances plus élevées, tout en économisant 42,5 % des coûts de formation, en réduisant le cache KV de 93,3 % et en augmentant le débit de génération maximal à 5,76 fois. DeepSeek est une entreprise explorant l'intelligence artificielle générale

L’IA change effectivement les mathématiques. Récemment, Tao Zhexuan, qui a prêté une attention particulière à cette question, a transmis le dernier numéro du « Bulletin de l'American Mathematical Society » (Bulletin de l'American Mathematical Society). En se concentrant sur le thème « Les machines changeront-elles les mathématiques ? », de nombreux mathématiciens ont exprimé leurs opinions. L'ensemble du processus a été plein d'étincelles, intense et passionnant. L'auteur dispose d'une équipe solide, comprenant Akshay Venkatesh, lauréat de la médaille Fields, le mathématicien chinois Zheng Lejun, l'informaticien de l'Université de New York Ernest Davis et de nombreux autres universitaires bien connus du secteur. Le monde de l’IA a radicalement changé. Vous savez, bon nombre de ces articles ont été soumis il y a un an.

Écrit précédemment, nous discutons aujourd'hui de la manière dont la technologie d'apprentissage profond peut améliorer les performances du SLAM (localisation et cartographie simultanées) basé sur la vision dans des environnements complexes. En combinant des méthodes d'extraction de caractéristiques approfondies et de correspondance de profondeur, nous introduisons ici un système SLAM visuel hybride polyvalent conçu pour améliorer l'adaptation dans des scénarios difficiles tels que des conditions de faible luminosité, un éclairage dynamique, des zones faiblement texturées et une gigue importante. Notre système prend en charge plusieurs modes, notamment les configurations étendues monoculaire, stéréo, monoculaire-inertielle et stéréo-inertielle. En outre, il analyse également comment combiner le SLAM visuel avec des méthodes d’apprentissage profond pour inspirer d’autres recherches. Grâce à des expériences approfondies sur des ensembles de données publiques et des données auto-échantillonnées, nous démontrons la supériorité du SL-SLAM en termes de précision de positionnement et de robustesse du suivi.

Boston Dynamics Atlas entre officiellement dans l’ère des robots électriques ! Hier, l'Atlas hydraulique s'est retiré "en larmes" de la scène de l'histoire. Aujourd'hui, Boston Dynamics a annoncé que l'Atlas électrique était au travail. Il semble que dans le domaine des robots humanoïdes commerciaux, Boston Dynamics soit déterminé à concurrencer Tesla. Après la sortie de la nouvelle vidéo, elle a déjà été visionnée par plus d’un million de personnes en seulement dix heures. Les personnes âgées partent et de nouveaux rôles apparaissent. C'est une nécessité historique. Il ne fait aucun doute que cette année est l’année explosive des robots humanoïdes. Les internautes ont commenté : Les progrès des robots ont fait ressembler la cérémonie d'ouverture de cette année à des êtres humains, et le degré de liberté est bien plus grand que celui des humains. Mais n'est-ce vraiment pas un film d'horreur ? Au début de la vidéo, Atlas est allongé calmement sur le sol, apparemment sur le dos. Ce qui suit est à couper le souffle

Plus tôt ce mois-ci, des chercheurs du MIT et d'autres institutions ont proposé une alternative très prometteuse au MLP – KAN. KAN surpasse MLP en termes de précision et d’interprétabilité. Et il peut surpasser le MLP fonctionnant avec un plus grand nombre de paramètres avec un très petit nombre de paramètres. Par exemple, les auteurs ont déclaré avoir utilisé KAN pour reproduire les résultats de DeepMind avec un réseau plus petit et un degré d'automatisation plus élevé. Plus précisément, le MLP de DeepMind compte environ 300 000 paramètres, tandis que le KAN n'en compte qu'environ 200. KAN a une base mathématique solide comme MLP est basé sur le théorème d'approximation universelle, tandis que KAN est basé sur le théorème de représentation de Kolmogorov-Arnold. Comme le montre la figure ci-dessous, KAN a

Les performances de JAX, promu par Google, ont dépassé celles de Pytorch et TensorFlow lors de récents tests de référence, se classant au premier rang sur 7 indicateurs. Et le test n’a pas été fait sur le TPU présentant les meilleures performances JAX. Bien que parmi les développeurs, Pytorch soit toujours plus populaire que Tensorflow. Mais à l’avenir, des modèles plus volumineux seront peut-être formés et exécutés sur la base de la plate-forme JAX. Modèles Récemment, l'équipe Keras a comparé trois backends (TensorFlow, JAX, PyTorch) avec l'implémentation native de PyTorch et Keras2 avec TensorFlow. Premièrement, ils sélectionnent un ensemble de

La dernière vidéo du robot Optimus de Tesla est sortie, et il peut déjà fonctionner en usine. À vitesse normale, il trie les batteries (les batteries 4680 de Tesla) comme ceci : Le responsable a également publié à quoi cela ressemble à une vitesse 20 fois supérieure - sur un petit "poste de travail", en sélectionnant et en sélectionnant et en sélectionnant : Cette fois, il est publié L'un des points forts de la vidéo est qu'Optimus réalise ce travail en usine, de manière totalement autonome, sans intervention humaine tout au long du processus. Et du point de vue d'Optimus, il peut également récupérer et placer la batterie tordue, en se concentrant sur la correction automatique des erreurs : concernant la main d'Optimus, le scientifique de NVIDIA Jim Fan a donné une évaluation élevée : la main d'Optimus est l'un des robots à cinq doigts du monde. le plus adroit. Ses mains ne sont pas seulement tactiles

La détection de cibles est un problème relativement mature dans les systèmes de conduite autonome, parmi lesquels la détection des piétons est l'un des premiers algorithmes à être déployés. Des recherches très complètes ont été menées dans la plupart des articles. Cependant, la perception de la distance à l’aide de caméras fisheye pour une vue panoramique est relativement moins étudiée. En raison de la distorsion radiale importante, la représentation standard du cadre de délimitation est difficile à mettre en œuvre dans les caméras fisheye. Pour alléger la description ci-dessus, nous explorons les conceptions étendues de boîtes englobantes, d'ellipses et de polygones généraux dans des représentations polaires/angulaires et définissons une métrique de segmentation d'instance mIOU pour analyser ces représentations. Le modèle fisheyeDetNet proposé avec une forme polygonale surpasse les autres modèles et atteint simultanément 49,5 % de mAP sur l'ensemble de données de la caméra fisheye Valeo pour la conduite autonome.
