Maison Périphériques technologiques IA Le géant du deep learning DeepMind a réalisé des progrès révolutionnaires sur l'ensemble de données ImageNet, franchissant ainsi une nouvelle étape dans la recherche en robotique.

Le géant du deep learning DeepMind a réalisé des progrès révolutionnaires sur l'ensemble de données ImageNet, franchissant ainsi une nouvelle étape dans la recherche en robotique.

Oct 05, 2023 pm 04:21 PM
产业 rt-x open x-embodiment

Pourquoi la robotique est-elle loin derrière le traitement du langage naturel (NLP), la vision et d'autres domaines de l'intelligence artificielle ? Entre autres difficultés, le manque de données en est la principale raison. Afin de résoudre ce problème, Google DeepMind et d'autres institutions ont lancé l'ensemble de données ouvert X-Embodiment et ont réussi à former un modèle RT-X plus puissant

Le géant du deep learning DeepMind a réalisé des progrès révolutionnaires sur lensemble de données ImageNet, franchissant ainsi une nouvelle étape dans la recherche en robotique.
Percées continues dans les grands modèles En 2023, la recherche les robots intelligents incarnés qui utilisent de grands modèles comme cerveaux pour faciliter le fonctionnement progressent également rapidement.

Il y a plus de 2 mois, Google DeepMind a lancé le premier modèle Vision-Langage-Action (VLA) pour contrôler les robots - RT-2. Ce modèle permet au robot non seulement d'interpréter des instructions humaines complexes, mais également de comprendre l'objet devant lui (même si l'objet n'a jamais été vu auparavant) et d'agir conformément aux instructions. Par exemple, vous demandez au robot de ramasser « l’animal disparu » sur la table. Il attrapera la poupée dinosaure devant lui.

Le géant du deep learning DeepMind a réalisé des progrès révolutionnaires sur lensemble de données ImageNet, franchissant ainsi une nouvelle étape dans la recherche en robotique.

À l'époque, un dirigeant de Google avait déclaré que le RT-2 constituait un grand pas en avant dans la manière dont les robots sont construits et programmés. "En raison de ce changement, nous avons dû repenser l'ensemble de notre plan de recherche."

Ce qui est encore plus surprenant, c'est qu'un peu plus de deux mois se sont écoulés et que le modèle du robot de DeepMind s'est encore amélioré et a triplé instantanément.

Comment cela est-il réalisé ?

Nous savons que les robots sont généralement très spécialisés dans une seule chose, mais ont de faibles capacités générales. En règle générale, vous devez former un modèle pour chaque tâche, robot et environnement. Changer une variable nécessite souvent de repartir de zéro. Mais et si nous pouvions combiner les connaissances de divers domaines de la robotique pour créer un moyen de former des robots universels ?

C'est ce que fait DeepMind depuis quelques temps. Ils ont regroupé les données de 22 types de robots différents pour créer l'ensemble de données Open X-Embodiment, puis ont formé un RT-X plus performant (RT-1-X et RT-2-X respectivement).

Ils ont testé le modèle RT-1-X dans cinq laboratoires de recherche différents et les résultats ont montré que la nouvelle méthode a eu le même succès sur cinq robots différents couramment utilisés par rapport aux méthodes développées indépendamment pour chaque robot, le taux a augmenté de 50 %. . Ils montrent également que le RT-2-X formé sur l'ensemble de données ci-dessus améliore d'un facteur 2 les performances des compétences robotiques du monde réel, et qu'en apprenant de nouvelles données, le RT-2-X maîtrise de nombreuses nouvelles compétences. Ce travail montre qu'un modèle unique formé sur les données de plusieurs types de robots fonctionne nettement mieux sur plusieurs robots qu'un modèle formé sur les données d'un seul type de robot.

Le géant du deep learning DeepMind a réalisé des progrès révolutionnaires sur lensemble de données ImageNet, franchissant ainsi une nouvelle étape dans la recherche en robotique.

Il convient de mentionner que cette recherche n'a pas été réalisée par DeepMind de manière indépendante, mais est le résultat de leur collaboration avec 33 laboratoires universitaires. Ils s’engagent à développer cette technologie de manière ouverte et responsable.
Le géant du deep learning DeepMind a réalisé des progrès révolutionnaires sur lensemble de données ImageNet, franchissant ainsi une nouvelle étape dans la recherche en robotique.
Actuellement, l'ensemble de données Open X-Embodiment et les points de contrôle du modèle RT-1-X sont disponibles pour la vaste communauté de recherche.
Le géant du deep learning DeepMind a réalisé des progrès révolutionnaires sur lensemble de données ImageNet, franchissant ainsi une nouvelle étape dans la recherche en robotique.
Jim Fan, scientifique principal en intelligence artificielle chez Nvidia, a déclaré qu'aujourd'hui pourrait être le moment ImageNet pour les robots.

Le géant du deep learning DeepMind a réalisé des progrès révolutionnaires sur lensemble de données ImageNet, franchissant ainsi une nouvelle étape dans la recherche en robotique.

Karol Hausman, chercheuse chez Google, a également exprimé le même soupir : le moment ImageNet des robots est enfin arrivé.

Le géant du deep learning DeepMind a réalisé des progrès révolutionnaires sur lensemble de données ImageNet, franchissant ainsi une nouvelle étape dans la recherche en robotique.

Open X-Embodiment Dataset, ImageNet Moment for Robotics

Les ensembles de données et les modèles formés sur ceux-ci ont joué un rôle clé dans l'avancement des progrès de l'IA. Tout comme ImageNet a fait progresser la recherche en vision par ordinateur, Open X-Embodiment a également fait progresser la robotique.

La création d'ensembles de données diversifiés a toujours été la clé de la formation de modèles universels. Ces modèles formés peuvent contrôler de nombreux types de robots différents, suivre différentes instructions, effectuer un raisonnement de base sur des tâches complexes et effectuer efficacement des modifications générales. Cependant, la collecte d’un tel ensemble de données nécessiterait trop de ressources pour un seul laboratoire.

À cette fin, DeepMind a collaboré avec des laboratoires de recherche universitaires de 33 institutions pour créer l'ensemble de données Open X-Embodiment. Ils ont collecté des données provenant de 22 instances de robots couvrant plus d'un million de clips démontrant les performances des robots dans plus de 500 compétences et 150 000 tâches. Cet ensemble de données est l’ensemble de données robotique le plus complet de ce type.
Le géant du deep learning DeepMind a réalisé des progrès révolutionnaires sur lensemble de données ImageNet, franchissant ainsi une nouvelle étape dans la recherche en robotique.
                                                                                  Échantillons de l'Open
Le géant du deep learning DeepMind a réalisé des progrès révolutionnaires sur lensemble de données ImageNet, franchissant ainsi une nouvelle étape dans la recherche en robotique.
                                            
RT-1-X : Le taux de réussite est augmenté de 50 %

RT-X est basé sur deux modèles de transformateurs robotiques (RT) construits.

Plus précisément, ils ont formé RT-1-X à l'aide de RT-1, qui est un réseau de paramètres de 35 millions construit sur l'architecture Transformer et conçu pour le contrôle des robots, comme le montre la figure 3.

De plus, ils ont formé RT-2-X sur RT-2, une famille de modèles d'action de langage visuel (VLA) à grande échelle, sur des données de vision et de langage à l'échelle Internet ainsi que sur des données de contrôle de robot entraînées.

Pour évaluer RT-1-X, DeepMind l'a comparé à des modèles développés sur des tâches spécifiques, comme l'ouverture de portes. Les résultats montrent que le RT-1-X formé à l'aide de l'ensemble de données Open X-Embodiment surpasse le modèle d'origine de 50 % en moyenne. Le taux de réussite moyen du RT-1-X est 50 % supérieur à celui de la méthode originale.
Le géant du deep learning DeepMind a réalisé des progrès révolutionnaires sur lensemble de données ImageNet, franchissant ainsi une nouvelle étape dans la recherche en robotique.
关于 L'affichage des effets du RT-1-X de différentes agences de coopération

RT-2-X : Nouvelles compétences de déverrouillage sans barrière
Afin d'étudier la migration des connaissances de RT-X capacités, DeepMind a mené d’autres expériences. Ces expériences impliquaient des objets et des compétences qui n'étaient pas présents dans l'ensemble de données RT-2, mais qui étaient présents dans l'ensemble de données d'un autre robot. Les résultats ont montré que le RT-2-X réussissait trois fois plus à maîtriser de nouvelles compétences que son précédent meilleur modèle, le RT-2. Cela illustre également qu'une formation conjointe avec des données provenant d'autres plates-formes peut donner au RT-2-X des compétences supplémentaires non présentes dans l'ensemble de données d'origine, lui permettant ainsi d'effectuer de nouvelles tâches. L’image ci-dessus montre la compréhension de RT-2-X de la relation spatiale entre les objets.
Le géant du deep learning DeepMind a réalisé des progrès révolutionnaires sur lensemble de données ImageNet, franchissant ainsi une nouvelle étape dans la recherche en robotique.
Une série de résultats montrent que RT-2-X atteint des compétences auparavant inaccessibles avec RT-2, notamment une meilleure compréhension de l'espace. Par exemple, si nous demandons au robot de « déplacer la pomme près du tissu », ou si nous demandons au robot de « déplacer la pomme vers le tissu », afin d'atteindre les exigences de l'objectif, le robot empruntera des trajectoires complètement différentes. Changez simplement la préposition de « près » à « on » pour ajuster les actions entreprises par le robot.
RT-2-X montre que l'intégration de données provenant d'autres robots dans la formation RT-2-X peut améliorer l'éventail de tâches du robot, mais seulement si une architecture de capacité suffisamment élevée est utilisée.

Le géant du deep learning DeepMind a réalisé des progrès révolutionnaires sur lensemble de données ImageNet, franchissant ainsi une nouvelle étape dans la recherche en robotique.

                                                                                                                                               RT-2-X (55B) : l'un des plus grands modèles à ce jour effectuant des tâches inconnues dans un laboratoire universitaire Même chose

Le géant du deep learning DeepMind a réalisé des progrès révolutionnaires sur lensemble de données ImageNet, franchissant ainsi une nouvelle étape dans la recherche en robotique.La recherche en robotique en est à ses débuts passionnants. Cette nouvelle recherche de DeepMind montre qu’en adaptant l’apprentissage avec des données plus diversifiées et de meilleurs modèles, il pourrait être possible de développer des robots d’assistance plus utiles. La collaboration et le partage de ressources avec des laboratoires du monde entier sont essentiels pour faire progresser la recherche en robotique de manière ouverte et responsable. DeepMind espère réduire les barrières et accélérer la recherche en ouvrant les sources de données et en fournissant des modèles sécurisés mais limités. L’avenir de la robotique dépend de l’apprentissage des robots les uns des autres et, surtout, de la possibilité pour les chercheurs d’apprendre les uns des autres.

Ces travaux prouvent que le modèle peut être généralisé dans différents environnements, et que ses performances sont significativement améliorées que ce soit sur les robots de Google DeepMind ou sur les robots de différentes universités à travers le monde. Des recherches futures pourraient explorer comment combiner ces avancées avec les propriétés d’auto-amélioration de RoboCat, permettant au modèle de s’améliorer continuellement en fonction de sa propre expérience. Une autre orientation future consiste à explorer davantage comment le mélange de différents ensembles de données affecte la généralisation des agents inter-incarnés, et comment cette généralisation est réalisée.

Si vous souhaitez en savoir plus sur RT-X, vous pouvez vous référer à cet article publié par DeepMind :

Lien article : https://robotics-transformer-x.github.io / paper.pdf

Lien du projet : https://robotics-transformer-x.github.io/

Lien de référence : https://www.deepmind.com/blog/scaling - apprentissage ultérieur sur de nombreux types de robots différentsLe géant du deep learning DeepMind a réalisé des progrès révolutionnaires sur lensemble de données ImageNet, franchissant ainsi une nouvelle étape dans la recherche en robotique.

    Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

    Déclaration de ce site Web
    Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

    Outils d'IA chauds

    Undresser.AI Undress

    Undresser.AI Undress

    Application basée sur l'IA pour créer des photos de nu réalistes

    AI Clothes Remover

    AI Clothes Remover

    Outil d'IA en ligne pour supprimer les vêtements des photos.

    Undress AI Tool

    Undress AI Tool

    Images de déshabillage gratuites

    Clothoff.io

    Clothoff.io

    Dissolvant de vêtements AI

    AI Hentai Generator

    AI Hentai Generator

    Générez AI Hentai gratuitement.

    Article chaud

    R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
    1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌
    R.E.P.O. Meilleurs paramètres graphiques
    4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
    R.E.P.O. Comment réparer l'audio si vous n'entendez personne
    1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌
    R.E.P.O. Commandes de chat et comment les utiliser
    1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌

    Outils chauds

    Bloc-notes++7.3.1

    Bloc-notes++7.3.1

    Éditeur de code facile à utiliser et gratuit

    SublimeText3 version chinoise

    SublimeText3 version chinoise

    Version chinoise, très simple à utiliser

    Envoyer Studio 13.0.1

    Envoyer Studio 13.0.1

    Puissant environnement de développement intégré PHP

    Dreamweaver CS6

    Dreamweaver CS6

    Outils de développement Web visuel

    SublimeText3 version Mac

    SublimeText3 version Mac

    Logiciel d'édition de code au niveau de Dieu (SublimeText3)

    Le robot DeepMind joue au tennis de table, et son coup droit et son revers glissent dans les airs, battant complètement les débutants humains Le robot DeepMind joue au tennis de table, et son coup droit et son revers glissent dans les airs, battant complètement les débutants humains Aug 09, 2024 pm 04:01 PM

    Mais peut-être qu’il ne pourra pas vaincre le vieil homme dans le parc ? Les Jeux Olympiques de Paris battent leur plein et le tennis de table suscite beaucoup d'intérêt. Dans le même temps, les robots ont également réalisé de nouvelles avancées dans le domaine du tennis de table. DeepMind vient tout juste de proposer le premier agent robot apprenant capable d'atteindre le niveau des joueurs amateurs humains de tennis de table de compétition. Adresse papier : https://arxiv.org/pdf/2408.03906 Quelle est la capacité du robot DeepMind à jouer au tennis de table ? Probablement à égalité avec les joueurs amateurs humains : tant en coup droit qu'en revers : l'adversaire utilise une variété de styles de jeu, et le robot peut également résister : recevoir des services avec des tours différents : Cependant, l'intensité du jeu ne semble pas aussi intense que le vieil homme dans le parc. Pour les robots, le tennis de table

    La première griffe mécanique ! Yuanluobao est apparu à la World Robot Conference 2024 et a lancé le premier robot d'échecs pouvant entrer dans la maison La première griffe mécanique ! Yuanluobao est apparu à la World Robot Conference 2024 et a lancé le premier robot d'échecs pouvant entrer dans la maison Aug 21, 2024 pm 07:33 PM

    Le 21 août, la Conférence mondiale sur les robots 2024 s'est tenue en grande pompe à Pékin. La marque de robots domestiques de SenseTime, "Yuanluobot SenseRobot", a dévoilé toute sa famille de produits et a récemment lancé le robot de jeu d'échecs Yuanluobot AI - Chess Professional Edition (ci-après dénommé "Yuanluobot SenseRobot"), devenant ainsi le premier robot d'échecs au monde pour le maison. En tant que troisième produit robot jouant aux échecs de Yuanluobo, le nouveau robot Guoxiang a subi un grand nombre de mises à niveau techniques spéciales et d'innovations en matière d'IA et de machines d'ingénierie. Pour la première fois, il a réalisé la capacité de ramasser des pièces d'échecs en trois dimensions. grâce à des griffes mécaniques sur un robot domestique et effectuer des fonctions homme-machine telles que jouer aux échecs, tout le monde joue aux échecs, réviser la notation, etc.

    Claude aussi est devenu paresseux ! Internaute : apprenez à vous accorder des vacances Claude aussi est devenu paresseux ! Internaute : apprenez à vous accorder des vacances Sep 02, 2024 pm 01:56 PM

    La rentrée scolaire est sur le point de commencer, et ce ne sont pas seulement les étudiants qui sont sur le point de commencer le nouveau semestre qui doivent prendre soin d’eux-mêmes, mais aussi les grands modèles d’IA. Il y a quelque temps, Reddit était rempli d'internautes se plaignant de la paresse de Claude. « Son niveau a beaucoup baissé, il fait souvent des pauses et même la sortie devient très courte. Au cours de la première semaine de sortie, il pouvait traduire un document complet de 4 pages à la fois, mais maintenant il ne peut même plus produire une demi-page. !" https://www.reddit.com/r/ClaudeAI/comments/1by8rw8/something_just_feels_wrong_with_claude_in_the/ dans un post intitulé "Totalement déçu par Claude", plein de

    Lors de la World Robot Conference, ce robot domestique porteur de « l'espoir des futurs soins aux personnes âgées » a été entouré Lors de la World Robot Conference, ce robot domestique porteur de « l'espoir des futurs soins aux personnes âgées » a été entouré Aug 22, 2024 pm 10:35 PM

    Lors de la World Robot Conference qui se tient à Pékin, l'exposition de robots humanoïdes est devenue le centre absolu de la scène. Sur le stand Stardust Intelligent, l'assistant robot IA S1 a réalisé trois performances majeures de dulcimer, d'arts martiaux et de calligraphie. un espace d'exposition, capable à la fois d'arts littéraires et martiaux, a attiré un grand nombre de publics professionnels et de médias. Le jeu élégant sur les cordes élastiques permet au S1 de démontrer un fonctionnement fin et un contrôle absolu avec vitesse, force et précision. CCTV News a réalisé un reportage spécial sur l'apprentissage par imitation et le contrôle intelligent derrière "Calligraphy". Le fondateur de la société, Lai Jie, a expliqué que derrière les mouvements soyeux, le côté matériel recherche le meilleur contrôle de la force et les indicateurs corporels les plus humains (vitesse, charge). etc.), mais du côté de l'IA, les données réelles de mouvement des personnes sont collectées, permettant au robot de devenir plus fort lorsqu'il rencontre une situation forte et d'apprendre à évoluer rapidement. Et agile

    Annonce des prix ACL 2024 : l'un des meilleurs articles sur le déchiffrement Oracle par HuaTech, GloVe Time Test Award Annonce des prix ACL 2024 : l'un des meilleurs articles sur le déchiffrement Oracle par HuaTech, GloVe Time Test Award Aug 15, 2024 pm 04:37 PM

    Les contributeurs ont beaucoup gagné de cette conférence ACL. L'ACL2024, d'une durée de six jours, se tient à Bangkok, en Thaïlande. ACL est la plus grande conférence internationale dans le domaine de la linguistique informatique et du traitement du langage naturel. Elle est organisée par l'Association internationale pour la linguistique informatique et a lieu chaque année. L'ACL s'est toujours classée première en termes d'influence académique dans le domaine de la PNL, et c'est également une conférence recommandée par le CCF-A. La conférence ACL de cette année est la 62e et a reçu plus de 400 travaux de pointe dans le domaine de la PNL. Hier après-midi, la conférence a annoncé le meilleur article et d'autres récompenses. Cette fois, il y a 7 Best Paper Awards (deux inédits), 1 Best Theme Paper Award et 35 Outstanding Paper Awards. La conférence a également décerné 3 Resource Paper Awards (ResourceAward) et Social Impact Award (

    Hongmeng Smart Travel S9 et conférence de lancement de nouveaux produits avec scénario complet, un certain nombre de nouveaux produits à succès ont été lancés ensemble Hongmeng Smart Travel S9 et conférence de lancement de nouveaux produits avec scénario complet, un certain nombre de nouveaux produits à succès ont été lancés ensemble Aug 08, 2024 am 07:02 AM

    Cet après-midi, Hongmeng Zhixing a officiellement accueilli de nouvelles marques et de nouvelles voitures. Le 6 août, Huawei a organisé la conférence de lancement de nouveaux produits Hongmeng Smart Xingxing S9 et Huawei, réunissant la berline phare intelligente panoramique Xiangjie S9, le nouveau M7Pro et Huawei novaFlip, MatePad Pro 12,2 pouces, le nouveau MatePad Air, Huawei Bisheng With de nombreux nouveaux produits intelligents tous scénarios, notamment la série d'imprimantes laser X1, FreeBuds6i, WATCHFIT3 et l'écran intelligent S5Pro, des voyages intelligents, du bureau intelligent aux vêtements intelligents, Huawei continue de construire un écosystème intelligent complet pour offrir aux consommateurs une expérience intelligente du Internet de tout. Hongmeng Zhixing : Autonomisation approfondie pour promouvoir la modernisation de l'industrie automobile intelligente Huawei s'associe à ses partenaires de l'industrie automobile chinoise pour fournir

    L'équipe de Li Feifei a proposé ReKep pour donner aux robots une intelligence spatiale et intégrer GPT-4o L'équipe de Li Feifei a proposé ReKep pour donner aux robots une intelligence spatiale et intégrer GPT-4o Sep 03, 2024 pm 05:18 PM

    Intégration profonde de la vision et de l'apprentissage des robots. Lorsque deux mains de robot travaillent ensemble en douceur pour plier des vêtements, verser du thé et emballer des chaussures, associées au robot humanoïde 1X NEO qui a fait la une des journaux récemment, vous pouvez avoir le sentiment : nous semblons entrer dans l'ère des robots. En fait, ces mouvements soyeux sont le produit d’une technologie robotique avancée + d’une conception de cadre exquise + de grands modèles multimodaux. Nous savons que les robots utiles nécessitent souvent des interactions complexes et exquises avec l’environnement, et que l’environnement peut être représenté comme des contraintes dans les domaines spatial et temporel. Par exemple, si vous souhaitez qu'un robot verse du thé, le robot doit d'abord saisir la poignée de la théière et la maintenir verticalement sans renverser le thé, puis la déplacer doucement jusqu'à ce que l'embouchure de la théière soit alignée avec l'embouchure de la tasse. , puis inclinez la théière selon un certain angle. ce

    Conférence sur l'intelligence artificielle distribuée Appel à communications DAI 2024 : Agent Day, Richard Sutton, le père de l'apprentissage par renforcement, sera présent ! Yan Shuicheng, Sergey Levine et les scientifiques de DeepMind prononceront des discours d'ouverture Conférence sur l'intelligence artificielle distribuée Appel à communications DAI 2024 : Agent Day, Richard Sutton, le père de l'apprentissage par renforcement, sera présent ! Yan Shuicheng, Sergey Levine et les scientifiques de DeepMind prononceront des discours d'ouverture Aug 22, 2024 pm 08:02 PM

    Introduction à la conférence Avec le développement rapide de la science et de la technologie, l'intelligence artificielle est devenue une force importante dans la promotion du progrès social. À notre époque, nous avons la chance d’être témoins et de participer à l’innovation et à l’application de l’intelligence artificielle distribuée (DAI). L’intelligence artificielle distribuée est une branche importante du domaine de l’intelligence artificielle, qui a attiré de plus en plus d’attention ces dernières années. Les agents basés sur de grands modèles de langage (LLM) ont soudainement émergé. En combinant les puissantes capacités de compréhension du langage et de génération des grands modèles, ils ont montré un grand potentiel en matière d'interaction en langage naturel, de raisonnement par connaissances, de planification de tâches, etc. AIAgent reprend le grand modèle de langage et est devenu un sujet brûlant dans le cercle actuel de l'IA. Au

    See all articles