Google은 대형 모델을 사용하여 로봇 개에게 모호한 지시 사항을 이해하도록 훈련시키고 소풍을 떠나는 것을 기쁘게 생각합니다.

WBOY
풀어 주다: 2024-01-16 11:24:15
앞으로
1117명이 탐색했습니다.
인간과 네 발 달린 로봇 사이의 간단하고 효과적인 상호 작용은 유능한 지능형 보조 로봇을 만드는 방법이며, 기술이 우리의 상상을 뛰어넘는 방식으로 우리의 삶을 향상시키는 미래를 가리킵니다. 이러한 인간-로봇 상호작용 시스템의 핵심은 4족 로봇에게 자연어 명령에 응답할 수 있는 능력을 부여하는 것입니다.

대규모 언어 모델(LLM)은 최근 빠르게 발전하여 높은 수준의 계획을 수행할 수 있는 잠재력을 보여주었습니다. 그러나 LLM이 관절 각도 목표 또는 모터 토크와 같은 낮은 수준의 지침을 이해하는 것은 여전히 ​​어렵습니다. 특히 본질적으로 불안정하고 고주파 제어 신호가 필요한 다리 로봇의 경우 더욱 그렇습니다. 따라서 대부분의 기존 작업에서는 LLM에 로봇의 동작을 결정하는 고급 API가 제공되어 시스템의 표현 기능이 근본적으로 제한된다고 가정합니다.

CoRL 2023 논문 "SayTap: Language to Quadrupedal Locomotion"에서 Google DeepMind와 도쿄 대학은 발 접촉 패턴을 인간의 자연어 지시와 출력 하위 수준 명령 간의 연결로 사용하는 새로운 방법을 제안했습니다. 모션 컨트롤러 브리지.

Google은 대형 모델을 사용하여 로봇 개에게 모호한 지시 사항을 이해하도록 훈련시키고 소풍을 떠나는 것을 기쁘게 생각합니다.

  • 문서 주소: https://arxiv.org/abs/2306.07580
  • 프로젝트 웹사이트: https://saytap.github.io/

발 접촉 패턴( 발 접촉 패턴)은 네 발 달린 에이전트가 움직일 때 발을 땅에 대는 순서와 방식을 나타냅니다. 이를 기반으로 사용자가 다양한 동작 동작을 유연하게 개발할 수 있는 대화형 4족 로봇 시스템을 개발했습니다. 예를 들어 사용자는 간단한 언어를 사용하여 로봇에게 걷기, 달리기, 점프 또는 기타 동작을 수행하도록 명령할 수 있습니다.

그들의 기여에는 LLM 프롬프트 디자인, 보상 기능 및 SayTap 컨트롤러가 실행 가능한 접촉 패턴 분포를 사용할 수 있도록 하는 방법이 포함됩니다.

연구에 따르면 SayTap 컨트롤러는 여러 모션 모드를 달성할 수 있으며 이러한 기능은 실제 로봇 하드웨어로 이전될 수도 있습니다.

SayTap 방법

SayTap 방법은 4인 접촉 모드 템플릿을 사용합니다. 발이 땅에 닿습니다. 위에서 아래로 행렬의 각 행은 각각 왼쪽 앞발(FL), 오른쪽 앞발(FR), 왼쪽 뒷발(RL), 오른쪽 뒷발(RR)의 발 접촉 패턴을 제공합니다. SayTap의 제어 주파수는 50Hz입니다. 이는 각 0 또는 1이 0.02초 동안 지속된다는 의미입니다. 본 연구에서는 원하는 발 접촉 패턴을 L_w 크기와 4 X L_w 모양의 순환 슬라이딩 창으로 정의합니다. 이 슬라이딩 창은 접촉 패턴 템플릿에서 4족 접지 플래그를 추출합니다. 이는 로봇 발이 시간 t + 1과 t + L_w 사이에 지면에 있었는지 아니면 공중에 있었는지 나타냅니다. 아래 그림은 SayTap 메서드의 개요를 보여줍니다.

Google은 대형 모델을 사용하여 로봇 개에게 모호한 지시 사항을 이해하도록 훈련시키고 소풍을 떠나는 것을 기쁘게 생각합니다.

SayTap 메서드 개요

SayTap은 자연어 사용자 명령과 모션 컨트롤러 간의 새로운 인터페이스로 원하는 발 접촉 패턴을 도입합니다. 모션 컨트롤러는 기본 작업(예: 지정된 속도 따르기)을 수행하고 달성된 발 접촉 패턴이 원하는 접촉 패턴에 최대한 가깝도록 특정 시간에 로봇 발을지면에 배치하는 데 사용됩니다.

이를 위해 모션 컨트롤러는 각 시간 단계에서 원하는 발 접촉 패턴과 고유 감각 데이터(예: 관절 위치 및 속도) 및 작업 관련 입력(예: 사용자별 속도 명령)을 입력으로 사용합니다. ). DeepMind는 강화 학습을 사용하여 모션 컨트롤러를 훈련하고 이를 심층 신경망으로 표현했습니다. 컨트롤러를 훈련하는 동안 연구원들은 무작위 생성기를 사용하여 원하는 발 접촉 패턴을 샘플링한 다음 원하는 발 접촉 패턴을 달성하는 낮은 수준의 로봇 동작을 출력하도록 정책을 최적화했습니다. 테스트 시 LLM은 사용자 명령을 발 접촉 패턴으로 변환하는 데 사용됩니다.

Google은 대형 모델을 사용하여 로봇 개에게 모호한 지시 사항을 이해하도록 훈련시키고 소풍을 떠나는 것을 기쁘게 생각합니다.

SayTap은 자연어 사용자 명령과 하위 수준 제어 명령 사이의 다리로 발 접촉 패턴을 사용합니다. SayTap은 간단하고 직접적인 명령(예: "천천히 앞으로 조깅")과 모호한 사용자 명령(예: "좋은 소식입니다. 이번 주말에 소풍을 갈 예정입니다!")을 모두 지원하는 강화 학습 기반 모션 컨트롤러를 통해 4개의 The 발 로봇은 명령에 따라 반응합니다.

연구에 따르면 LLM은 적절하게 설계된 프롬프트를 사용하여 사용자 명령이 구조화되지 않거나 모호한 경우에도 사용자 명령을 발 접촉 패턴 템플릿의 특정 형식으로 정확하게 매핑할 수 있는 능력을 가지고 있습니다. 훈련에서 연구원들은 무작위 패턴 생성기를 사용하여 다양한 패턴 길이 T를 갖고 주기에서 주어진 보행 유형 G의 발-지면 접촉 비율을 기반으로 하는 여러 접촉 패턴 템플릿을 생성했습니다. 컨트롤러는 광범위한 모션 패턴 분포를 학습하고 더 나은 일반화 기능을 달성할 수 있습니다. 자세한 내용은 논문을 참조하세요.

부분 접촉 모드 컨텍스트 샘플의 간단한 프롬프트를 통해 LLM은 다양한 인간을 정확하게 번역할 수 있습니다.

SayTap 프롬프트는 간단하고 간결합니다.

(1) 일반적인 설명 LLM이 완료해야 하는 작업을 설명합니다.
(2) LLM이 네발 보행 및 감정과의 연관성에 주의를 기울이도록 상기시키는 보행 정의

(4) ) LLM이 상황에 맞게 상황을 학습할 수 있도록 하는 시연 예
연구원은 또한 로봇이 앞으로 또는 뒤로 갈 수 있도록 5가지 속도를 설정했습니다. Commands

아래 애니메이션은 SayTap이 직접적이고 명확한 명령을 성공적으로 실행하는 예를 보여줍니다. 이 명령은 세 가지 상황 예에 포함되어 있지 않지만 LLM이 사전에 배운 내부 지식을 표현하도록 안내할 수 있습니다. -훈련 단계. 이는 위 프롬프트 모듈의 두 번째 프롬프트인 "보행 정의 모듈"을 사용합니다.

구조화되지 않았거나 모호한 명령을 따릅니다.

하지만 더욱 흥미로운 점은 구조화되지 않고 모호한 명령을 처리하는 SayTap의 능력입니다. 특정 걸음걸이를 일반적인 감정적 인상과 연결하는 데는 몇 가지 힌트만 있으면 됩니다. 예를 들어 로봇이 흥분되는 소리(예: "소풍 가자!")를 듣고 위아래로 점프하는 것과 같습니다. 또한, 예를 들어 땅이 매우 뜨겁다는 말을 들으면 로봇은 발이 땅에 닿지 않도록 빠르게 움직입니다.

Google은 대형 모델을 사용하여 로봇 개에게 모호한 지시 사항을 이해하도록 훈련시키고 소풍을 떠나는 것을 기쁘게 생각합니다.

Google은 대형 모델을 사용하여 로봇 개에게 모호한 지시 사항을 이해하도록 훈련시키고 소풍을 떠나는 것을 기쁘게 생각합니다.



요약 및 향후 작업

SayTap은 사용자가 다양한 이동 동작을 유연하게 공식화할 수 있는 4족 로봇용 대화형 시스템입니다. SayTap은 자연어와 하위 수준 컨트롤러 간의 인터페이스로 원하는 발 접촉 패턴을 도입합니다. 새로운 인터페이스는 간단하고 유연하며 로봇이 어떻게 행동해야 하는지 명시적으로 명시하지 않은 직접적인 지침과 명령을 모두 따를 수 있도록 해줍니다.

DeepMind 연구원들은 특정 감정을 암시하는 명령을 통해 LLM이 원하는 보행을 출력할 수 있는지 여부를 테스트하는 것이 향후 주요 연구 방향이라고 말했습니다. 위 결과의 보행 정의 모듈에서 연구자들은 행복한 감정을 점프 보행과 연결하는 문장을 제공했습니다. 더 많은 정보를 제공하면 암묵적인 감정을 해독하는 등 명령을 해석하는 LLM의 능력이 향상될 수 있습니다. 실험적 평가에서 행복한 감정과 통통 튀는 보행 사이의 연결은 로봇이 모호한 인간 지시를 따르면서 활기차게 행동할 수 있게 해주었습니다. 또 다른 흥미로운 미래 연구 방향은 비디오, 오디오 등 다중 모드 입력의 도입입니다. 이론적으로 이러한 신호에서 변환된 발 접촉 패턴은 여기서 새로 제안된 워크플로에도 적합하며 더 흥미로운 사용 사례를 열 것으로 예상됩니다.

원본 링크: https://blog.research.google/2023/08/saytap-언어-to-quadrupedal.html

위 내용은 Google은 대형 모델을 사용하여 로봇 개에게 모호한 지시 사항을 이해하도록 훈련시키고 소풍을 떠나는 것을 기쁘게 생각합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

원천:jiqizhixin.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
최신 이슈
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿
회사 소개 부인 성명 Sitemap
PHP 중국어 웹사이트:공공복지 온라인 PHP 교육,PHP 학습자의 빠른 성장을 도와주세요!