


Pour que les robots apprennent l'art du café latte, il faut commencer par la mécanique des fluides ! CMU&MIT lance une plateforme de simulation de fluides
Les robots peuvent aussi faire le travail des baristas !
Par exemple, si vous laissez remuer la mousse de lait et le café uniformément, l'effet sera le suivant :
Ensuite, rendez-le un peu plus difficile, faites un latte, puis utilisez le bâtonnet pour faire un modèle, c'est aussi facile à faire :
Ceux-ci sont basés sur une recherche qui a été acceptée comme Spotlight par l'ICLR 2023. Ils ont lancé FluidLab, une nouvelle référence pour la manipulation des fluides, et le moteur physique différenciable multi-matériaux FluidEngine .
Les membres de l'équipe de recherche viennent de la CMU, du Dartmouth College, de l'Université de Columbia, du MIT, du MIT-IBM Watson AI Lab et de l'Université du Massachusetts Amherst.
Avec le soutien de FluidLab, il sera facile pour les robots de gérer un travail fluide dans des scénarios plus complexes à l'avenir.
Quelles sont les « compétences cachées » de FluidLab ? Amusons-nous ensemble ~
Acteurs avancés en « mécanique des fluides »
FluidLab s'appuie sur FluidEngine comme support moteur. Comme son nom l'indique, l'objet de simulation principal est fluide. Il peut pleinement saisir les détails de différents matériaux et de différents types de matériaux. mouvements.
Essayez d'abord de simuler diverses scènes de préparation du café. Les trajectoires de mouvement du café et de la mousse de lait sont également très réalistes.
Bien sûr, simuler une glace, c'est aussi une question d'aspersion d'eau.
Ou simulez la trajectoire de l'écoulement de l'eau dans différentes conditions.
Si vous ne voyez toujours pas la force de FluidLab, alors passez directement au niveau de difficulté.
Par exemple, faisons d'abord une simulation comparative et laissons la plateforme simuler la collision de différents matériaux avec le conteneur lorsqu'ils tombent. De gauche à droite, ce sont : les matériaux durs, les matériaux élastiques et les plastiques.
Ou les trajectoires des différents liquides non visqueux et des liquides visqueux lorsqu'ils tombent.
Plus difficile, simulez l'état de rencontre du gaz et du liquide.
Facile à faire !
En ce moment, certains amis peuvent se demander : la simulation dans autant d'états est-elle conforme à la physique ou à la mécanique des fluides ?
Vous pouvez être assuré que l'équipe de recherche a directement divulgué la vidéo de vérification. Lorsqu'il s'agit de certains phénomènes physiques spécifiques, FluidEngine peut les simuler avec précision.
Les phénomènes physiques courants tels que le vortex de Karman et la rupture de barrage peuvent être simulés avec précision.
La flottabilité, l'incompressibilité et la stabilité du volume des liquides peuvent également être facilement reflétées dans la simulation.
Passez au niveau avancé et utilisez l'effet Magnus pour vérifier : la traduction, la traduction + la rotation lente dans le sens inverse des aiguilles d'une montre, la traduction + la rotation rapide dans le sens inverse des aiguilles d'une montre et la traduction + la rotation rapide dans le sens des aiguilles d'une montre sont toutes exactes.
Ajoutez 100 millions de points de difficulté et essayez la conservation de l'élan et l'instabilité de Rayleigh-Taylor.
...
Alors comment l'équipe de recherche a-t-elle réussi à réaliser une simulation aussi proche du monde réel ?
Différents états ont des algorithmes différents
Tout d'abord, en termes de langage de programmation, FluidEngine a choisi Python et Taichi est un langage de programmation spécifique à un domaine récemment proposé pour la simulation accélérée par GPU.
Cela fournit un ensemble convivial d'API pour créer des environnements de simulation. À un niveau supérieur, il suit également l'API standard d'OpenAI Gym et est compatible avec les algorithmes standard d'apprentissage par renforcement et d'optimisation.
La raison pour laquelle il est possible d'obtenir des effets de simulation virtuelle réalistes peut peut-être être tirée du processus de création d'un environnement avec FluidEngine.
L'environnement qu'il crée se compose de cinq parties :
- Un agent robot (un robot enfichable) équipé d'effecteurs finaux définis par l'utilisateur
- Des objets importés de maillages externes et représentés sous forme de champs de distance signés (SDF)
- Des objets créés à l'aide de primitives de forme ou maillages externes, utilisés pour représenter les particules
- Champs de gaz (y compris les champs de vitesse et autres champs d'advection tels que la densité de la fumée et la température) utilisés pour modéliser les phénomènes gazeux sur les maillages eulériens
- Un ensemble de limites géométriques définies par l'utilisateur pour prendre en charge les calculs
Parmi eux, lors du processus de simulation, différentes méthodes de calcul seront utilisées pour les matériaux dans différents états.
Pour les matériaux solides et liquides, le processus de simulation utilise la méthode des points matériels des moindres carrés mobiles (MLS-MPM), qui est une méthode hybride lagrangienne-eulérienne qui utilise des particules et des maillages pour simuler des matériaux continus.
Pour les gaz tels que la fumée ou l'air, le schéma d'advection-projection est utilisé dans le processus de simulation pour les simuler sous forme de fluides incompressibles sur une grille cartésienne.
De cette façon, des effets réalistes peuvent être simulés pour des situations spécifiques.
Le document, l'adresse du projet et le lien du code sont joints à la fin de l'article. Les amis intéressés peuvent cliquer pour voir.
Page d'accueil du projet : https://fluidlab2023.github.io/Lien papier :https://arxiv.org/abs/2303.02346 Lien de code :https://github.com/zhouxian/FluidLab
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Le robot humanoïde Ameca est passé à la deuxième génération ! Récemment, lors de la Conférence mondiale sur les communications mobiles MWC2024, le robot le plus avancé au monde, Ameca, est à nouveau apparu. Autour du site, Ameca a attiré un grand nombre de spectateurs. Avec la bénédiction de GPT-4, Ameca peut répondre à divers problèmes en temps réel. "Allons danser." Lorsqu'on lui a demandé si elle avait des émotions, Ameca a répondu avec une série d'expressions faciales très réalistes. Il y a quelques jours à peine, EngineeredArts, la société britannique de robotique derrière Ameca, vient de présenter les derniers résultats de développement de l'équipe. Dans la vidéo, le robot Ameca a des capacités visuelles et peut voir et décrire toute la pièce et des objets spécifiques. Le plus étonnant, c'est qu'elle peut aussi

Dans le domaine de la technologie de l’automatisation industrielle, il existe deux points chauds récents qu’il est difficile d’ignorer : l’intelligence artificielle (IA) et Nvidia. Ne changez pas le sens du contenu original, affinez le contenu, réécrivez le contenu, ne continuez pas : « Non seulement cela, les deux sont étroitement liés, car Nvidia ne se limite pas à son unité de traitement graphique d'origine (GPU ), il étend son GPU. La technologie s'étend au domaine des jumeaux numériques et est étroitement liée aux technologies émergentes d'IA "Récemment, NVIDIA a conclu une coopération avec de nombreuses entreprises industrielles, notamment des sociétés d'automatisation industrielle de premier plan telles qu'Aveva, Rockwell Automation, Siemens. et Schneider Electric, ainsi que Teradyne Robotics et ses sociétés MiR et Universal Robots. Récemment, Nvidiahascoll

Rédacteur en chef du Machine Power Report : Wu Xin La version domestique de l'équipe robot humanoïde + grand modèle a accompli pour la première fois la tâche d'exploitation de matériaux flexibles complexes tels que le pliage de vêtements. Avec le dévoilement de Figure01, qui intègre le grand modèle multimodal d'OpenAI, les progrès connexes des pairs nationaux ont attiré l'attention. Hier encore, UBTECH, le « stock numéro un de robots humanoïdes » en Chine, a publié la première démo du robot humanoïde WalkerS, profondément intégré au grand modèle de Baidu Wenxin, présentant de nouvelles fonctionnalités intéressantes. Maintenant, WalkerS, bénéficiant des capacités de grands modèles de Baidu Wenxin, ressemble à ceci. Comme la figure 01, WalkerS ne se déplace pas, mais se tient derrière un bureau pour accomplir une série de tâches. Il peut suivre les commandes humaines et plier les vêtements

Cette semaine, FigureAI, une entreprise de robotique investie par OpenAI, Microsoft, Bezos et Nvidia, a annoncé avoir reçu près de 700 millions de dollars de financement et prévoit de développer un robot humanoïde capable de marcher de manière autonome au cours de la prochaine année. Et l’Optimus Prime de Tesla a reçu à plusieurs reprises de bonnes nouvelles. Personne ne doute que cette année sera celle de l’explosion des robots humanoïdes. SanctuaryAI, une entreprise canadienne de robotique, a récemment lancé un nouveau robot humanoïde, Phoenix. Les responsables affirment qu’il peut accomplir de nombreuses tâches de manière autonome, à la même vitesse que les humains. Pheonix, le premier robot au monde capable d'accomplir des tâches de manière autonome à la vitesse d'un humain, peut saisir, déplacer et placer avec élégance chaque objet sur ses côtés gauche et droit. Il peut identifier des objets de manière autonome

Les robots de balayage et de nettoyage sont l’un des appareils électroménagers intelligents les plus populaires auprès des consommateurs ces dernières années. La commodité d'utilisation qu'il apporte, voire l'absence d'opération, permet aux paresseux de libérer leurs mains, permettant aux consommateurs de « se libérer » des tâches ménagères quotidiennes et de consacrer plus de temps à ce qu'ils aiment. Une qualité de vie améliorée sous une forme déguisée. Surfant sur cet engouement, presque toutes les marques d'électroménager du marché fabriquent leurs propres robots de balayage et de nettoyage, rendant l'ensemble du marché des robots de balayage et de nettoyage très vivant. Cependant, l'expansion rapide du marché entraînera inévitablement un danger caché : de nombreux fabricants utiliseront la tactique de la mer de machines pour occuper rapidement plus de parts de marché, ce qui entraînera de nombreux nouveaux produits sans aucun point de mise à niveau. ce sont des modèles de "matriochka". Ce n'est pas une exagération. Cependant, tous les robots de balayage et de nettoyage ne sont pas

En un clin d’œil, les robots ont appris à faire de la magie ? On a vu qu'il avait d'abord ramassé la cuillère à eau sur la table, prouvant au public qu'il n'y avait rien dedans... Ensuite, il a mis l'objet en forme d'œuf dans sa main, puis a remis la cuillère à eau sur la table. et a commencé à « jeter un sort »... … Juste au moment où il a repris la cuillère à eau, un miracle s'est produit. L'œuf qui avait été initialement mis dedans a disparu et la chose qui a sauté s'est transformée en ballon de basket... Regardons à nouveau les actions continues : △ Cette animation montre un ensemble d'actions à une vitesse 2x, et cela se déroule sans problème uniquement en regardant. la vidéo à plusieurs reprises à une vitesse de 0,5x peut-elle être comprise. Finalement, j'ai découvert les indices : si la vitesse de ma main était plus rapide, je pourrais peut-être la cacher à l'ennemi. Certains internautes ont déploré que les compétences magiques du robot soient encore supérieures aux leurs : c'est Mag qui a réalisé cette magie pour nous.

Les 10 robots humanoïdes suivants façonnent notre avenir : 1. ASIMO : Développé par Honda, ASIMO est l'un des robots humanoïdes les plus connus. Mesurant 4 pieds de haut et pesant 119 livres, ASIMO est équipé de capteurs avancés et de capacités d'intelligence artificielle qui lui permettent de naviguer dans des environnements complexes et d'interagir avec les humains. La polyvalence d'ASIMO le rend adapté à une variété de tâches, allant de l'assistance aux personnes handicapées à la réalisation de présentations lors d'événements. 2. Pepper : Créé par Softbank Robotics, Pepper vise à être un compagnon social pour les humains. Avec son visage expressif et sa capacité à reconnaître les émotions, Pepper peut participer à des conversations, aider dans les commerces de détail et même fournir un soutien pédagogique. Poivrons

L'IoT robotique est un développement émergent qui promet de rassembler deux technologies précieuses : les robots industriels et les capteurs IoT. L'Internet des objets robotiques deviendra-t-il courant dans le secteur manufacturier ? Qu'est-ce que l'Internet des objets robotiques (IoRT) est une forme de réseau qui connecte les robots à Internet. Ces robots utilisent des capteurs IoT pour collecter des données et interpréter leur environnement. Ils sont souvent associés à diverses technologies telles que l’intelligence artificielle et le cloud computing pour accélérer le traitement des données et optimiser l’utilisation des ressources. Le développement de l’IoRT permet aux robots de détecter et de réagir plus intelligemment aux changements environnementaux, apportant ainsi des solutions plus efficaces à diverses industries. En s'intégrant à la technologie IoT, l'IoRT peut non seulement réaliser un fonctionnement autonome et un auto-apprentissage, mais également
