De nombreuses avancées récentes dans plusieurs sous-domaines de la recherche sur l'apprentissage automatique (ML), tels que la vision par ordinateur et le traitement du langage naturel, reposent sur l'exploitation d'ensembles de données vastes et diversifiés et de modèles de représentation capables d'absorber efficacement toutes les données.
Cependant, cette méthode de modélisation performante a relativement peu d'applications dans le domaine de la robotique.
La raison est simple. Premièrement, le manque de données robotiques diversifiées et à grande échelle limite la capacité du modèle à absorber un large éventail d’expériences robotiques.
Deuxièmement, il y a un manque de modèles d'inférence en temps réel expressifs, évolutifs et suffisamment rapides, capables d'apprendre de tels ensembles de données et de généraliser efficacement.
Et cette fois, le Robotics Transformer 1 (RT-1 en abrégé) de Google est un modèle multitâche qui peut étiqueter les actions d'entrée et de sortie du robot (telles que les images de la caméra, les instructions de tâches et les commandes de moteur) pour exécuter des tâches efficaces. raisonnement à tout moment et rendre possible un contrôle en temps réel.
RT-1 absorbe une grande quantité de données pour rendre le robot compétent pour une variété de tâches dans différents environnements, améliorant ainsi les performances de la machine et les capacités de généralisation
Pour faire simple, cela signifie laisser un robot le faire en même temps Plusieurs tâches.
Le modèle a été formé sur un vaste ensemble de données robotiques du monde réel de 130 000 épisodes couvrant plus de 700 tâches, collectées sur 17 mois à l'aide de 13 robots d'Everyday Robots (EDR).
Les résultats montrent que RT-1 peut améliorer considérablement la généralisation du tir zéro à de nouvelles tâches, environnements et objets par rapport aux techniques existantes.
L'éditeur a également judicieusement placé le lien Github ci-dessous. Si vous êtes intéressé, allez y jeter un œil.
https://github.com/google-research/robotics_transformer
RT-1 est construit sur l'architecture Transformer, qui peut transformer le du robot L'historique des images est obtenu à partir de la caméra et la description de la tâche exprimée en langage naturel est utilisée comme entrée, tandis que les actions marquées sont directement sorties. L'architecture de
RT-1 est similaire à celle d'un modèle de séquence uniquement décodeur formé sur un objectif d'entropie croisée catégoriel standard avec masquage causal.
Le modèle prend des instructions textuelles et un ensemble d'images en entrée, les code en jetons via le modèle FiLM EfficientNet pré-entraîné, les compresse via TokenLearner, puis génère des jetons d'action via Transformer.
Ses principales fonctions incluent : la tokenisation d'image, la tokenisation d'action et la compression de jetons.
Nous utilisons des démos fournies par des humains via une opération à distance et annotons chaque épisode avec des descriptions textuelles du robot exécutant les instructions.
Et ce robot s'appuie sur "un bras à 7 degrés de liberté, une pince à deux doigts et une base mobile" pour effectuer des tâches.
L'ensemble de compétences de haut niveau représenté dans l'ensemble de données comprend des opérations telles que choisir et placer des objets, ouvrir et fermer des tiroirs, mettre des objets dans et hors des tiroirs, placer des objets minces à la verticale, renverser des objets, etc.
Pour pousser davantage RT-1, nous l'avons formé à l'aide de données collectées à partir d'un autre robot pour tester (1) si le modèle maintient ses performances sur la tâche d'origine lorsque de nouvelles sources de données sont présentées, et (2) si le modèle s'améliore en généralisation avec des données nouvelles et différentes.
Nous transformons les données collectées pour qu'elles correspondent aux spécifications d'action et aux limites des ensembles de données d'origine que nous avons collectés à l'aide d'EDR, et étiquetons chaque ensemble de données avec des instructions de tâche.
Mélangez ensuite les données Kuka avec les données EDR dans un rapport 1:2 dans chaque lot d'entraînement pour contrôler la régression des compétences EDR d'origine.
L'image montre la méthode de formation lors de la collecte de données de plusieurs robots
Les résultats montrent que RT-1 est capable d'acquérir de nouvelles compétences en observant l'expérience d'autres robots.
Lorsque RT-1 a été formé sur les données de sélection de bacs de Kuka et les données EDR existantes de la classe de robotique, la précision a bondi de près de 2 pour atteindre 39 %, contre 22 % lors d'une formation en utilisant uniquement les données EDR.
Lors de la formation du RT-1 en utilisant les données de sélection de Kuka uniquement et de son évaluation à l'aide des données de sélection du robot EDR, la précision était de 0 %.
Pour mieux comprendre la capacité de généralisation du RT-1, nous avons étudié ses performances par rapport à trois lignes de base : Gato, BC-Z et BC-Z XL (c'est-à-dire avec le même BC-Z pour les paramètres quantitatifs).
et l'a divisé en quatre catégories :
La photo montre les performances du RT-1 et du groupe témoin dans l'environnement de test
Nous évaluons SayCan dans deux vraies cuisines en utilisant RT-1 et deux autres références (SayCan avec Gato et SayCan avec BC-Z).
Ci-dessous, "Kitchen2" pose un scénario de généralisation plus difficile que "Kitchen1". La cuisine simulée utilisée pour collecter la plupart des données de formation a été calquée sur Kitchen1.
On peut voir que le taux de réussite d'exécution de SayCan avec RT-1 dans Kitchen1 est de 67 %, ce qui est meilleur que les autres références.
En raison des difficultés de généralisation causées par la nouvelle cuisine invisible, les performances de SayCan avec Gato et SayCan avec BCZ ont diminué, mais le taux de réussite de RT-1 n'a pas diminué.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!