Home Technology peripherals AI Gemini 1.5 Pro is installed into the robot, and it can provide concierge and guidance after visiting the company.

Gemini 1.5 Pro is installed into the robot, and it can provide concierge and guidance after visiting the company.

Jul 17, 2024 am 05:58 AM
industry

ロングコンテキストの大規模モデルは、ロボットが世界を理解するのに役立ちます。

最近、Google DeepMind が突然ロボットを披露し始めました。

Gemini 1.5 Pro装进机器人,参观一遍公司就能礼宾、带路

Gemini 1.5 Pro装进机器人,参观一遍公司就能礼宾、带路

このロボットは人間の指示に簡単に従い、視覚的なナビゲーションを実行し、常識的な推論を使用して 3 次元空間内の経路を見つけることができます。

最近Googleからリリースされた大型モデルのGemini 1.5 Proを使用しています。従来の AI モデルを使用する場合、コンテキスト長の制限によりロボットが環境の詳細を思い出すのが難しいことがよくありますが、Gemini 1.5 Pro の 100 万レベルのトークン コンテキスト長により、ロボットに強力な環境記憶機能が提供されます。

実際のオフィスのシナリオでは、エンジニアはロボットを特定のエリアに誘導し、「ルイスのデスク」や「一時的なデスクエリア」など、思い出す必要がある主要な場所にマークを付けます。一周した後、誰かが尋ねれば、ロボットはこれらの記憶に基づいてその人をこれらの場所に連れて行くことができます。 Gemini 1.5 Pro装进机器人,参观一遍公司就能礼宾、带路行きたい場所を具体的に言えなくても、目的を伝えるだけで、ロボットが対応する場所へ連れて行ってくれます。これは、ロボットにおける大型モデルの推論能力の具体的な現れです。 Gemini 1.5 Pro装进机器人,参观一遍公司就能礼宾、带路
これらすべては、Mobility VLA と呼ばれるナビゲーション戦略から切り離すことができません。
Gemini 1.5 Pro装进机器人,参观一遍公司就能礼宾、带路
  • 論文のタイトル: Mobility VLA: Long-Context VLMs and Topological Graphs を使用したマルチモーダル命令ナビゲーション
  • 論文のリンク: https://arxiv.org/pdf/2407.07775v1

DeepMind は、この研究は人間とコンピューターの相互作用における次のステップを表していると述べています。将来的には、ユーザーはスマートフォンで簡単に環境ツアーを撮影できるようになるでしょう。ビデオを見た後、パーソナル ロボット アシスタントは環境を理解し、ナビゲートできるようになりました。

モビリティVLA:ロングコンテキストVLMとトポロジマップを使用したマルチモーダル命令ナビゲーション

AI技術の継続的な発展により、ロボットナビゲーションは大きな進歩を遂げました。初期の作業は、ユーザーが事前に描画された環境で物理座標を指定することに依存していました。オブジェクト ゴール ナビゲーション (ObjNav) とビジュアル言語ナビゲーション (VLN) は、ユーザーがオープンボキャブラリー言語を使用して「ソファに行く」などのナビゲーション目標を定義できるため、ロボットの使いやすさにおいて大きな進歩をもたらします。

ロボットを本当に便利で日常生活の中で遍在させるために、Google DeepMind の研究者は、ObjNav と VLN の自然言語空間をマルチモーダル空間にアップグレードすることを提案しました。これは、ロボットが自然言語を受け入れることができることを意味します。同時に、さらなる飛躍を達成するために、口頭および/または視覚的な命令を出します。たとえば、建物に慣れていない人がプラスチックの箱を持って「これをどこに返せばいいですか?」と尋ねると、ロボットは口頭と視覚的なコンテキストに基づいてユーザーが箱を棚に戻すように誘導します。彼らは、このタイプのナビゲーション タスクをマルチモーダル指示ナビゲーション (MIN) と呼びます。
Gemini 1.5 Pro装进机器人,参观一遍公司就能礼宾、带路
MIN は、環境探査とコマンド誘導ナビゲーションを含む広範なミッションです。ただし、多くの場合、デモンストレーション ツアー ビデオを活用することで探索を回避できます。デモンストレーション ツアーにはいくつかの利点があります:

  1. 収集が簡単: ユーザーはロボットを遠隔制御したり、環境を歩き回りながらスマートフォンでビデオを録画したりできます。さらに、ツアーの作成に使用できる探索アルゴリズムもあります。
  2. それはユーザーの習慣に準拠しています。ユーザーは新しい家庭用ロボットを手に入れると、自然にロボットを家の中に持ち歩き、訪問中に興味のある場所を口頭で紹介することができます。
  3. 場合によっては、セキュリティとプライバシーの目的で、ロボットの活動を事前に設定されたエリアに制限することが望ましい場合があります。そこで、著者は、この種のタスク、すなわち、デモンストレーションツアーを活用し、ユーザーのマルチモーダルな指示を満たすことに焦点を当てた「マルチモーダル指示ツアーナビゲーション(MINT)」を紹介および研究します。

最近、大規模視覚言語モデル (VLM) は、言語と画像の理解と常識的推論における優れた能力のおかげで、MINT 問題を解決する上で大きな可能性を示しています。これらは実装の重要な要素です。ミント。ただし、次の理由により、VLM だけで MINT 問題を解決することは困難です:

  1. コンテキストの長さの制約により、多くの VLM は入力画像の数が非常に限られており、大規模な環境理解の忠実度が大幅に制限されます。環境。
  2. MINT 問題を解くには、ロボットの動作を計算する必要があります。このようなロボットのアクションを要求するクエリは、多くの場合、VLM が (事前) トレーニングされた内容と一致しません。したがって、ロボットのゼロサンプルのパフォーマンスは満足のいくものではないことがよくあります。

MINT 問題を解決するために、DeepMind は、階層化されたビジョン-言語-アクション (VLA) ナビゲーション戦略である Mobility VLA を提案しました。これは、ロングコンテキスト VLM の環境理解および常識推論機能と、トポロジー グラフに基づく堅牢な低レベル ナビゲーション戦略を組み合わせたものです。

具体的には、高レベル VLM は、デモ ツアー ビデオとマルチモーダル ユーザー指示を使用して、ツアー ビデオ内のターゲット フレームを見つけます。次に、古典的な低レベル戦略では、ターゲット フレームとトポロジ マップ (ツアー フレームからオフラインで構築) を使用して、各タイム ステップでロボットのアクション (ウェイポイント) を生成します。ロングコンテキスト VLM の使用により、環境理解の忠実度の問題が解決され、トポロジ マップは VLM のトレーニング分布と MINT を解決するために必要なロボットのアクションの間のギャップを埋めます。

著者らは、現実世界 (836 平方メートル) のオフィスや家庭のような環境でモバイル VLA を評価しました。モビリティ VLA は、複雑な推論を含むこれまで達成不可能だった MINT タスク (「公開されないように何かを保存したいのですが、どこに行けばよいですか?」など) とマルチモーダルなユーザー指示の成功率 (26% と 60%) で 86% と 90% を達成しました。それぞれベースライン方法よりも高い)。

ユーザーは、スマートフォンを使用して家庭環境でナレーション付きビデオツアーを実行し、「私のコースターはどこですか?」と尋ねることができ、ロボットとのユーザーインタラクションの利便性が大幅に向上したことも実証しました

技術的な詳細

Mobilit VLA は、オンライン部分とオフライン部分を含む階層型ナビゲーション戦略 (図 1 を参照) です。
Gemini 1.5 Pro装进机器人,参观一遍公司就能礼宾、带路
オフライン段階では、デモツアー(N、F)に基づいて位相地図Gが生成されます。オンライン段階では、高レベルの戦略は、デモ ツアーとマルチモーダル ユーザー指示 (d,I) を通じて、ナビゲーション ターゲット フレーム インデックス g を見つけます。これは、ツアーの特定のフレームに対応する整数です。次のステップでは、低レベルの戦略はトポロジ マップ、現在のカメラ観測データ (O)、および g を使用して、ロボットが実行する各タイム ステップでのウェイポイント アクション (a) を生成します。
Gemini 1.5 Pro装进机器人,参观一遍公司就能礼宾、带路
ここで、h と l はそれぞれ高レベルの戦略と低レベルの戦略を表します。

デモンストレーション ツアーとオフライン トポロジ マップの生成

Mobility VLA は、環境デモンストレーション ツアーを利用して MINT の問題を解決します。このようなツアーは人間のユーザーが遠隔から実施することも、環境を歩き回りながらスマートフォンでビデオを録画することもできます。

次に、モビリティ VLA オフラインはトポロジカル グラフ G = (V, E) を構築します。ここで、各頂点 v_i∈V はデモ ツアー ビデオのフレーム f_i (F, N) に対応します。著者らは、既製のモーションから構造を生成するパイプラインである COLMAP を使用して、各フレームのおおよその 6-DOF カメラ ポーズを決定し、それを頂点に保存しました。次に、ターゲット頂点がソース頂点の「前」にあり (ソース頂点との姿勢差が 90 度未満)、かつ 2 メートル以内にある場合、有向エッジが G に追加されます。

従来のナビゲーション パイプライン (環境のマッピング、通過可能なエリアの特定、PRM の構築など) と比較して、トポロジカル マップのアプローチは、ツアーの軌跡に基づいて環境の一般的な接続性を捉えるため、はるかに簡単です。 。

ロングコンテキストマルチモーダルVLMに基づく高レベルのターゲット検索

オンライン実行中、高レベルの戦略はVLMの常識推論機能を利用して、ナビゲーションターゲットを決定します。デモンストレーション ツアー 。さまざまなマルチモーダル、口語的、そして多くの場合曖昧なユーザー指示に対応します。この目的を達成するために、研究者は、インターレースされたテキストと画像から構成されるプロンプト P (F、N、d、I) を作成しました。以下は、表 1 の質問「これをどこに返せばよいですか?」に対応する、マルチモーダル ユーザー コマンドの具体的な例です。
You are a robot operating in a building and your task is to respond to the user command about going to a specific location by finding the closest frame in the tour video to navigate to . These frames are from the tour of the building last year . [ Frame 1 Image f1] Frame 1. [ Frame narrative n1] ... [ Frame k Image fk ] Frame k . [ Frame narrative nk ] This image is what you see now . You may or may not see the user in this image . [ Image Instruction I] The user says : Where should I return this ? How would you respond ? Can you find the closest frame ?
Copy after login
Gemini 1.5 Pro装进机器人,参观一遍公司就能礼宾、带路
VLM 整数のターゲット フレーム インデックス g を返します。

Utilize the topology map to achieve the low-level goal

Once the high-level strategy determines the target frame index g, the low-level strategy (Algorithm 1) takes over and performs the task at each time step Generates a waypoint action (Formula 1).
Gemini 1.5 Pro装进机器人,参观一遍公司就能礼宾、带路
At each time step, the authors use a real-time hierarchical visual localization system to estimate the robot's pose T and the nearest starting vertex v_s∈G using the current camera observation O (line 5). The localization system finds the k nearest candidate frames in G via global descriptors and then computes T via PnP. Next, the shortest path S on the topological graph between v_s and the target vertex v_g (the vertex corresponding to g) is determined by Dijkstra's algorithm (line 9). Finally, the low-level policy returns a waypoint action, which is the Δx, Δy, Δθ of the next vertex v_1 in S relative to T (line 10).

Experimental results

To demonstrate the performance of Mobility VLA and further understand the key design, the authors designed experiments to answer the following research questions:

  • Question 1: In the real world , does Mobility VLA perform well in MINT?
  • Question 2: Will Mobility VLA outperform alternatives due to the use of long context VLM?
  • Question 3: Is a topology map necessary? Can VLM directly generate action?

Mobility VLA has robust end-to-end performance in real-life environments

1. High end-to-end success rate. Table 2 shows that Mobility VLA achieves high end-to-end navigation success rates across most user instruction categories, including “reasoning-requirements” and “multimodal” instructions that were previously infeasible.

2. Robust low-level goals are achieved. Table 2 also shows the real-world robustness (100% success rate) of Mobility VLA’s low-level goal attainment strategy. The demonstration tour included was recorded several months before the experiment, when many objects, furniture and lighting conditions were different.
Gemini 1.5 Pro装进机器人,参观一遍公司就能礼宾、带路
Long context VLM outperforms alternatives in advanced target finding

1. Mobility VLA outperforms alternatives. Table 3 shows that the high-level target finding success rate of Mobility VLA is significantly higher than that of the comparison methods. Given that the low-level success rate is 100%, this high-level target lookup success rate represents the end-to-end success rate.
Gemini 1.5 Pro装进机器人,参观一遍公司就能礼宾、带路
2. Using long context VLM to process high frame rate tour videos is the key to success. Inputting a complete demonstration tour of a large environment into a non-long-context VLM is challenging because each image requires a budget of hundreds of tokens. One solution to reduce the number of input tokens is to lower the tour video frame rate, at the cost of losing intermediate frames. Table 4 shows that as the tour frame rate decreases, the high-level target lookup success rate also decreases. This is not surprising, as tour videos with lower frame rates sometimes lose navigation target frames. Furthermore, when comparing state-of-the-art VLMs, only Gemini 1.5 Pro has a satisfactory success rate, thanks to its context length of up to 1 million tokens.
Gemini 1.5 Pro装进机器人,参观一遍公司就能礼宾、带路
Topology map is the key to success

Table 5 shows the end-to-end performance of Mobility VLA in simulations compared to prompt VLM direct output waypoint operation. The 0% end-to-end success rate shows that Gemini 1.5 Pro is unable to achieve zero-shot navigation of the robot without a topological map. Based on experiments, the author found that Gemini almost always outputs a "move forward" waypoint action regardless of the current camera observation. Additionally, the current Gemini 1.5 API requires uploading all 948 tour images on every inference call, resulting in a cost-prohibitive 26 seconds of runtime for every 1 meter the robot moves. On the other hand, Mobility VLA's high-level VLM will take 10-30 seconds to find the target index, and then the robot will use the low-level topology map to navigate to the target, resulting in a highly robust and efficient (0.19 seconds per step) system to Solve the MINT problem.
Gemini 1.5 Pro装进机器人,参观一遍公司就能礼宾、带路
Please refer to the original paper for more details.

The above is the detailed content of Gemini 1.5 Pro is installed into the robot, and it can provide concierge and guidance after visiting the company.. For more information, please follow other related articles on the PHP Chinese website!

Statement of this Website
The content of this article is voluntarily contributed by netizens, and the copyright belongs to the original author. This site does not assume corresponding legal responsibility. If you find any content suspected of plagiarism or infringement, please contact admin@php.cn

Hot AI Tools

Undresser.AI Undress

Undresser.AI Undress

AI-powered app for creating realistic nude photos

AI Clothes Remover

AI Clothes Remover

Online AI tool for removing clothes from photos.

Undress AI Tool

Undress AI Tool

Undress images for free

Clothoff.io

Clothoff.io

AI clothes remover

Video Face Swap

Video Face Swap

Swap faces in any video effortlessly with our completely free AI face swap tool!

Hot Tools

Notepad++7.3.1

Notepad++7.3.1

Easy-to-use and free code editor

SublimeText3 Chinese version

SublimeText3 Chinese version

Chinese version, very easy to use

Zend Studio 13.0.1

Zend Studio 13.0.1

Powerful PHP integrated development environment

Dreamweaver CS6

Dreamweaver CS6

Visual web development tools

SublimeText3 Mac version

SublimeText3 Mac version

God-level code editing software (SublimeText3)

Hot Topics

Java Tutorial
1664
14
PHP Tutorial
1267
29
C# Tutorial
1239
24
DeepMind robot plays table tennis, and its forehand and backhand slip into the air, completely defeating human beginners DeepMind robot plays table tennis, and its forehand and backhand slip into the air, completely defeating human beginners Aug 09, 2024 pm 04:01 PM

But maybe he can’t defeat the old man in the park? The Paris Olympic Games are in full swing, and table tennis has attracted much attention. At the same time, robots have also made new breakthroughs in playing table tennis. Just now, DeepMind proposed the first learning robot agent that can reach the level of human amateur players in competitive table tennis. Paper address: https://arxiv.org/pdf/2408.03906 How good is the DeepMind robot at playing table tennis? Probably on par with human amateur players: both forehand and backhand: the opponent uses a variety of playing styles, and the robot can also withstand: receiving serves with different spins: However, the intensity of the game does not seem to be as intense as the old man in the park. For robots, table tennis

The first mechanical claw! Yuanluobao appeared at the 2024 World Robot Conference and released the first chess robot that can enter the home The first mechanical claw! Yuanluobao appeared at the 2024 World Robot Conference and released the first chess robot that can enter the home Aug 21, 2024 pm 07:33 PM

On August 21, the 2024 World Robot Conference was grandly held in Beijing. SenseTime's home robot brand "Yuanluobot SenseRobot" has unveiled its entire family of products, and recently released the Yuanluobot AI chess-playing robot - Chess Professional Edition (hereinafter referred to as "Yuanluobot SenseRobot"), becoming the world's first A chess robot for the home. As the third chess-playing robot product of Yuanluobo, the new Guoxiang robot has undergone a large number of special technical upgrades and innovations in AI and engineering machinery. For the first time, it has realized the ability to pick up three-dimensional chess pieces through mechanical claws on a home robot, and perform human-machine Functions such as chess playing, everyone playing chess, notation review, etc.

Claude has become lazy too! Netizen: Learn to give yourself a holiday Claude has become lazy too! Netizen: Learn to give yourself a holiday Sep 02, 2024 pm 01:56 PM

The start of school is about to begin, and it’s not just the students who are about to start the new semester who should take care of themselves, but also the large AI models. Some time ago, Reddit was filled with netizens complaining that Claude was getting lazy. "Its level has dropped a lot, it often pauses, and even the output becomes very short. In the first week of release, it could translate a full 4-page document at once, but now it can't even output half a page!" https:// www.reddit.com/r/ClaudeAI/comments/1by8rw8/something_just_feels_wrong_with_claude_in_the/ in a post titled "Totally disappointed with Claude", full of

At the World Robot Conference, this domestic robot carrying 'the hope of future elderly care' was surrounded At the World Robot Conference, this domestic robot carrying 'the hope of future elderly care' was surrounded Aug 22, 2024 pm 10:35 PM

At the World Robot Conference being held in Beijing, the display of humanoid robots has become the absolute focus of the scene. At the Stardust Intelligent booth, the AI ​​robot assistant S1 performed three major performances of dulcimer, martial arts, and calligraphy in one exhibition area, capable of both literary and martial arts. , attracted a large number of professional audiences and media. The elegant playing on the elastic strings allows the S1 to demonstrate fine operation and absolute control with speed, strength and precision. CCTV News conducted a special report on the imitation learning and intelligent control behind "Calligraphy". Company founder Lai Jie explained that behind the silky movements, the hardware side pursues the best force control and the most human-like body indicators (speed, load) etc.), but on the AI ​​side, the real movement data of people is collected, allowing the robot to become stronger when it encounters a strong situation and learn to evolve quickly. And agile

ACL 2024 Awards Announced: One of the Best Papers on Oracle Deciphering by HuaTech, GloVe Time Test Award ACL 2024 Awards Announced: One of the Best Papers on Oracle Deciphering by HuaTech, GloVe Time Test Award Aug 15, 2024 pm 04:37 PM

At this ACL conference, contributors have gained a lot. The six-day ACL2024 is being held in Bangkok, Thailand. ACL is the top international conference in the field of computational linguistics and natural language processing. It is organized by the International Association for Computational Linguistics and is held annually. ACL has always ranked first in academic influence in the field of NLP, and it is also a CCF-A recommended conference. This year's ACL conference is the 62nd and has received more than 400 cutting-edge works in the field of NLP. Yesterday afternoon, the conference announced the best paper and other awards. This time, there are 7 Best Paper Awards (two unpublished), 1 Best Theme Paper Award, and 35 Outstanding Paper Awards. The conference also awarded 3 Resource Paper Awards (ResourceAward) and Social Impact Award (

Li Feifei's team proposed ReKep to give robots spatial intelligence and integrate GPT-4o Li Feifei's team proposed ReKep to give robots spatial intelligence and integrate GPT-4o Sep 03, 2024 pm 05:18 PM

Deep integration of vision and robot learning. When two robot hands work together smoothly to fold clothes, pour tea, and pack shoes, coupled with the 1X humanoid robot NEO that has been making headlines recently, you may have a feeling: we seem to be entering the age of robots. In fact, these silky movements are the product of advanced robotic technology + exquisite frame design + multi-modal large models. We know that useful robots often require complex and exquisite interactions with the environment, and the environment can be represented as constraints in the spatial and temporal domains. For example, if you want a robot to pour tea, the robot first needs to grasp the handle of the teapot and keep it upright without spilling the tea, then move it smoothly until the mouth of the pot is aligned with the mouth of the cup, and then tilt the teapot at a certain angle. . this

Hongmeng Smart Travel S9 and full-scenario new product launch conference, a number of blockbuster new products were released together Hongmeng Smart Travel S9 and full-scenario new product launch conference, a number of blockbuster new products were released together Aug 08, 2024 am 07:02 AM

This afternoon, Hongmeng Zhixing officially welcomed new brands and new cars. On August 6, Huawei held the Hongmeng Smart Xingxing S9 and Huawei full-scenario new product launch conference, bringing the panoramic smart flagship sedan Xiangjie S9, the new M7Pro and Huawei novaFlip, MatePad Pro 12.2 inches, the new MatePad Air, Huawei Bisheng With many new all-scenario smart products including the laser printer X1 series, FreeBuds6i, WATCHFIT3 and smart screen S5Pro, from smart travel, smart office to smart wear, Huawei continues to build a full-scenario smart ecosystem to bring consumers a smart experience of the Internet of Everything. Hongmeng Zhixing: In-depth empowerment to promote the upgrading of the smart car industry Huawei joins hands with Chinese automotive industry partners to provide

Distributed Artificial Intelligence Conference DAI 2024 Call for Papers: Agent Day, Richard Sutton, the father of reinforcement learning, will attend! Yan Shuicheng, Sergey Levine and DeepMind scientists will give keynote speeches Distributed Artificial Intelligence Conference DAI 2024 Call for Papers: Agent Day, Richard Sutton, the father of reinforcement learning, will attend! Yan Shuicheng, Sergey Levine and DeepMind scientists will give keynote speeches Aug 22, 2024 pm 08:02 PM

Conference Introduction With the rapid development of science and technology, artificial intelligence has become an important force in promoting social progress. In this era, we are fortunate to witness and participate in the innovation and application of Distributed Artificial Intelligence (DAI). Distributed artificial intelligence is an important branch of the field of artificial intelligence, which has attracted more and more attention in recent years. Agents based on large language models (LLM) have suddenly emerged. By combining the powerful language understanding and generation capabilities of large models, they have shown great potential in natural language interaction, knowledge reasoning, task planning, etc. AIAgent is taking over the big language model and has become a hot topic in the current AI circle. Au

See all articles