7 月 28 日のニュース Google は本日、新しい人工知能 (AI) モデル Robotics Transformer2 (RT-2) を発表しました。これは、ゴミ捨てなどのタスクを理解するロボットのトレーニングに役立ちます。
この文は完全な文ではなくラベルであるため、書き直すことはできません。完全な文を提供してください。書き直すのを喜んでお手伝いします
Google によると、RT-2 はインターネットからの情報と画像をロボットが理解できるアクションに変換できる視覚言語です。アクション モデルは、これはロボットの学習能力を向上させるのに役立ちます。
ゴミ拾いなどの作業は人間にとって単純に見えるかもしれませんが、ロボットが学習するにはさまざまな知識を習得する必要があります。たとえば、ロボットはまずゴミがどのようなアイテムで構成されているかを識別することを学習し、次にそれを拾い上げて処分する方法を理解する必要があります。
RT-2 を使用すると、ロボットはネットワークからの知識を使用してタスクの方法を理解できます。プログラミングは、ロボットが特定のタスクを完了するようにガイドするのではなく、完了します。ロボットが明示的なトレーニング手順を経ていない場合でも、RT-2 を通じて新しいタスクを学習して完了することができます。
ニューヨーク タイムズの報道によると、Google は現在、この新しいテクノロジーを使用したロボットをリリースまたは販売する計画はありません。しかし、最終的には、この技術は倉庫物流やホームアシスタントロボットに適用される可能性があります
IT Home に RT-2 モデルの詳細な説明が添付されています:ここをクリックして移動します
以上がGoogle、ロボットがゴミ処理スキルを習得できるようにする RT-2 視覚言語アクション モデルを発表の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。