기술 주변기기 일체 포함 다중 모드 명령 학습: Google 이미지 생성 AI를 사용하면 쉽게 따라갈 수 있습니다.

다중 모드 명령 학습: Google 이미지 생성 AI를 사용하면 쉽게 따라갈 수 있습니다.

Jan 15, 2024 pm 04:33 PM
산업

이제 그림 2의 스타일로 그림 1의 고양이를 그리고 그 위에 모자를 씌울 수 있는 Google이 디자인한 새로운 이미지 생성 모델이 있습니다. 이 모델은 명령어 미세 조정 기술을 사용하여 텍스트 명령어와 여러 참조 이미지를 기반으로 새로운 이미지를 정확하게 생성합니다. 효과는 매우 좋으며 PS 마스터가 직접 그림을 만드는 데 도움을 준 것과 비슷합니다.

다중 모드 명령 학습: Google 이미지 생성 AI를 사용하면 쉽게 따라갈 수 있습니다.

대형 언어 모델(LLM)을 사용할 때 지침 미세 조정의 중요성을 깨달았습니다. 지침을 적절하게 미세 조정하면 LLM은 시 작곡, 코드 작성, 대본 작성, 과학 연구 지원, 심지어 투자 관리 수행과 같은 다양한 작업을 수행할 수 있습니다.

대형 모델이 멀티 모달 시대에 진입한 지금, 교육 미세 조정이 여전히 유효한가요? 예를 들어, 다중 모드 명령을 통해 이미지 생성 제어를 미세 조정할 수 있습니까? 언어 생성과 달리 이미지 생성에는 처음부터 다중 양식이 포함됩니다. 모델이 다중 양식의 복잡성을 효과적으로 파악하도록 할 수 있습니까?

이 문제를 해결하기 위해 Google DeepMind와 Google Research는 이미지 생성을 달성하기 위한 다중 모드 학습 방법을 제안했습니다. 이 방법은 다양한 양식의 정보를 엮어 이미지 생성 조건을 표현합니다(그림 1의 왼쪽 패널에 표시된 예).

다중 모드 명령은 언어 명령을 향상시킬 수 있습니다. 예를 들어 사용자는 참조 이미지의 스타일을 지정하여 이미지를 렌더링할 모델을 생성할 수 있습니다. 이 직관적인 대화형 인터페이스를 통해 이미지 생성 작업을 위한 다중 모드 조건을 효율적으로 설정할 수 있습니다.

이 아이디어를 바탕으로 팀은 다중 모드 명령 이미지 생성 모델인 Instruct-Imagen을 만들었습니다.

다중 모드 명령 학습: Google 이미지 생성 AI를 사용하면 쉽게 따라갈 수 있습니다.

논문 주소: https://arxiv.org/abs/2401.01952

다중 모드 명령 학습: Google 이미지 생성 AI를 사용하면 쉽게 따라갈 수 있습니다.

모델은 2단계 교육 방법을 사용합니다. 먼저 다중 모드 지침을 처리하는 모델의 능력을 강화한 다음 충실하게 따릅니다. 다중 모달 사용자 의도.

첫 번째 단계에서 팀은 추가 다중 모드 입력을 처리하는 사전 훈련된 텍스트-이미지 모델을 채택했으며 나중에 다중 모드 명령에 정확하게 응답할 수 있도록 미세 조정했습니다. 구체적으로, 그들이 취한 사전 훈련된 모델은 확산 모델이었으며 네트워크 규모(이미지, 텍스트) 코퍼스에서 가져온 유사한(이미지, 텍스트) 컨텍스트로 보강되었습니다.

두 번째 단계에서 팀은 다양한 이미지 생성 작업에 대해 모델을 미세 조정했으며, 각 작업은 해당 다중 모드 지침과 쌍을 이루었습니다. 이러한 지침에는 각 작업의 핵심 요소가 포함되었습니다. 위 단계를 수행한 후 결과 모델 Instruct-Imagen은 여러 양식(예: 스케치와 텍스트 지침으로 설명된 시각적 스타일)의 융합 입력을 매우 능숙하게 처리할 수 있으므로 상황에 정확하게 맞고 충분히 밝은 이미지를 생성할 수 있습니다.

그림 1에서 볼 수 있듯이 Instruct-Imagen은 복잡한 다중 모드 명령을 이해하고 인간의 의도를 충실히 따르는 이미지를 생성할 수 있으며 이전에 볼 수 없었던 명령의 조합도 처리할 수 있어 매우 뛰어난 성능을 발휘합니다.

다중 모드 명령 학습: Google 이미지 생성 AI를 사용하면 쉽게 따라갈 수 있습니다.

인간 피드백에 따르면 많은 경우 Instruct-Imagen은 해당 작업에 대한 작업별 모델의 성능과 일치할 뿐만 아니라 이를 능가하기도 합니다. 뿐만 아니라 Instruct-Imagen은 강력한 일반화 기능을 보여주며 눈에 보이지 않는 보다 복잡한 이미지 생성 작업에 사용될 수 있습니다.

생성을 위한 다중 모드 지침

팀에서 사용하는 사전 학습된 모델은 확산 모델이며 사용자가 입력 조건을 설정할 수 있습니다. 자세한 내용은 원본 논문을 참조하세요.

다중 모드 지침의 경우 다양성과 일반화 능력을 보장하기 위해 팀에서는 언어의 역할이 작업의 목표와 다중 모드 조건을 명확하게 기술하는 통합 다중 모드 교육 형식을 제안했습니다. 참고정보로 활용됩니다.

새로 제안된 이 명령 형식에는 두 가지 주요 구성 요소가 포함되어 있습니다. (1) 작업 목표를 자세히 설명하고 [ref#?]와 같은 참조 정보 식별을 제공하는 역할을 하는 페이로드 텍스트 명령입니다. (2) 쌍을 이루는(로고 + 텍스트, 이미지) 다중 모드 컨텍스트. 그런 다음 모델은 공유 명령어 이해 모델을 사용하여 텍스트 명령어와 다중 모드 컨텍스트를 처리합니다. 컨텍스트의 특정 양식은 여기에 제한되지 않습니다.

그림 2는 이 형식이 이전 이미지 생성 작업과 호환될 수 있음을 보여주는 세 가지 예를 통해 이 형식이 다양한 이전 세대 작업을 어떻게 나타낼 수 있는지 보여줍니다. 더 중요한 것은 언어가 유연하므로 양식 및 작업에 대한 특별한 설계 없이도 다중 모드 명령을 새로운 작업으로 확장할 수 있다는 것입니다.

다중 모드 명령 학습: Google 이미지 생성 AI를 사용하면 쉽게 따라갈 수 있습니다.

Instruct-Imagen

Instruct-Imagen은 다중 모드 지침을 기반으로 합니다. 이를 기반으로 팀은 사전 훈련된 텍스트-이미지 확산 모델, 즉 계단식 확산 모델을 기반으로 입력 다중 모드 명령 조건을 완전히 채택할 수 있는 모델 아키텍처를 설계했습니다.

다중 모드 명령 학습: Google 이미지 생성 AI를 사용하면 쉽게 따라갈 수 있습니다.

구체적으로는 Imagen의 변형을 사용했으며 "깊은 언어 이해를 갖춘 사실적인 텍스트-이미지 확산 모델" 논문을 참조하고 내부 데이터 소스를 기반으로 사전 훈련했습니다. 전체 모델에는 두 가지 하위 구성 요소가 포함되어 있습니다. (1) 텍스트 프롬프트만 사용하여 128×128 해상도 이미지를 생성하는 작업을 수행하는 텍스트-이미지 구성 요소 (2) 128 해상도로 변환할 수 있는 텍스트 조건부 초해상도 모델 이미지를 1024 해상도로 업그레이드하세요.

다중 모드 명령어의 인코딩에 대해서는 다중 모드 명령어를 인코딩하는 Instruct-Imagen의 데이터 흐름을 보여주는 그림 3(오른쪽)을 참조하세요.

2단계 방법을 사용한 Instruct-Imagen 교육

Instruct-Imagen의 교육 과정은 두 단계로 나뉩니다.

첫 번째 단계는 검색 강화된 텍스트-이미지 훈련으로, 향상된 검색된 이웃(이미지, 텍스트) 쌍을 사용하여 텍스트-이미지 생성 훈련을 계속합니다.

두 번째 단계는 첫 번째 단계의 출력 모델을 미세 조정하는 것으로, 각 작업은 해당 다중 모드 명령과 쌍을 이루는 다양한 이미지 생성 작업을 혼합하여 사용합니다. 특히 팀은 5개 작업 범주에 걸쳐 11개의 이미지를 사용하여 데이터 세트를 생성했습니다(표 1 참조).

다중 모드 명령 학습: Google 이미지 생성 AI를 사용하면 쉽게 따라갈 수 있습니다.

두 학습 단계 모두에서 모델은 처음부터 끝까지 최적화됩니다.

Experiments

팀은 새로 제안된 방법과 모델에 대한 실험적 평가를 수행하고 Instruct-Imagen의 설계 및 실패 모드에 대한 심층 분석을 수행했습니다.

실험 설정

팀은 두 가지 설정, 즉 도메인 내 작업 평가와 제로샷 작업 평가에서 모델을 평가했는데, 여기서 후자 설정이 이전 설정보다 더 어렵습니다.

주요 결과

그림 4는 Instruct-Imagen을 기본 방법 및 이전 방법과 비교한 결과, 도메인 평가 및 제로 샘플 평가에서 이전 방법과 비교할 수 있음을 보여줍니다.

다중 모드 명령 학습: Google 이미지 생성 AI를 사용하면 쉽게 따라갈 수 있습니다.

이는 다중 모드 명령을 사용한 훈련이 제한된 훈련 데이터를 사용하는 작업(예: 양식화 생성)에서 모델 성능을 향상시키는 동시에 데이터가 풍부한 작업(예: 사진과 같은 이미지 생성)에서 성능을 유지할 수 있음을 보여줍니다. 다중 모드 교육이 없으면 다중 작업 벤치마크로 인해 이미지 품질과 텍스트 정렬이 저하되는 경향이 있습니다.

예를 들어 그림 5의 컨텍스트 내 스타일화 예에서 멀티태스킹 벤치마크는 스타일과 개체를 구별하는 데 어려움이 있으므로 개체가 생성된 결과에 재현됩니다. 비슷한 이유로 스타일 전송 작업에서도 성능이 좋지 않습니다. 이러한 관찰은 명령어 미세 조정의 가치를 강조합니다.

다중 모드 명령 학습: Google 이미지 생성 AI를 사용하면 쉽게 따라갈 수 있습니다.

특정 작업에 의존하는 현재 방법이나 교육과 달리 Instruct-Imagen은 다양한 작업의 목표를 결합하고 상황에 맞는 추론을 수행하는 지침을 활용하여 결합된 작업을 (예를 들어 미세 조정 없이) 효율적으로 관리할 수 있습니다. 초).

그림 6에서 볼 수 있듯이 Instruct-Imagen은 명령 따르기 및 출력 품질 측면에서 항상 다른 모델보다 성능이 뛰어납니다.

다중 모드 명령 학습: Google 이미지 생성 AI를 사용하면 쉽게 따라갈 수 있습니다.

그뿐만 아니라 다중 모드 컨텍스트에 여러 참조가 있는 경우 다중 작업 기준 모델이 텍스트 지침을 참조에 대응할 수 없어 일부 다중 모드 조건이 무시됩니다. 이러한 결과는 새로 제안된 모델의 효율성을 더욱 입증합니다.

모델 분석 및 절제 연구

팀은 모델의 한계와 실패 모드를 분석했습니다.

예를 들어, 팀은 미세 조정된 Instruct-Imagen이 이미지를 편집할 수 있다는 것을 발견했습니다. Table 2에서 보는 바와 같이 기존의 SDXL-inpainting과 MagicBrush 데이터세트에서 미세 조정된 Imagen, 그리고 미세 조정된 Instruct-Imagen을 비교하면 미세 조정된 Instruct-Imagen이 기존의 Instruct-Imagen보다 훨씬 우수함을 알 수 있다. 마스크 기반 이미지 편집을 위해 특별히 설계된 디자인 모델입니다.

다중 모드 명령 학습: Google 이미지 생성 AI를 사용하면 쉽게 따라갈 수 있습니다.

그러나 미세 조정된 Instruct-Imagen은 편집된 이미지, 특히 그림 7과 같이 초해상도 단계 이후의 고해상도 출력에서 ​​아티팩트를 생성합니다. 연구원들은 모델이 이전에 상황에서 직접 픽셀을 정확하게 복사하는 방법을 학습하지 않았기 때문이라고 말합니다.

다중 모드 명령 학습: Google 이미지 생성 AI를 사용하면 쉽게 따라갈 수 있습니다.

팀은 또한 검색 강화 훈련이 일반화 능력 향상에 도움이 된다는 것을 발견했으며 그 결과는 표 3에 나와 있습니다.

다중 모드 명령 학습: Google 이미지 생성 AI를 사용하면 쉽게 따라갈 수 있습니다.

Instruct-Imagen의 실패 모드와 관련하여 연구원들은 다중 모드 명령이 더 복잡할 때(최소 3개의 다중 모드 조건) Instruct-Imagen이 명령을 준수하는 결과를 생성하는 데 어려움을 겪는다는 사실을 발견했습니다. 그림 8에는 두 가지 예가 나와 있습니다.

다중 모드 명령 학습: Google 이미지 생성 AI를 사용하면 쉽게 따라갈 수 있습니다.

다음은 훈련 중에 볼 수 없었던 복잡한 작업에 대한 일부 결과를 보여줍니다.

다중 모드 명령 학습: Google 이미지 생성 AI를 사용하면 쉽게 따라갈 수 있습니다.

다중 모드 명령 학습: Google 이미지 생성 AI를 사용하면 쉽게 따라갈 수 있습니다.

다중 모드 명령 학습: Google 이미지 생성 AI를 사용하면 쉽게 따라갈 수 있습니다.

팀에서는 디자인 구성 요소의 중요성을 입증하기 위해 절제 연구도 수행했습니다.

그러나 보안 문제로 인해 Google은 아직 이 연구의 코드와 API를 공개하지 않았습니다.

다중 모드 명령 학습: Google 이미지 생성 AI를 사용하면 쉽게 따라갈 수 있습니다.

자세한 내용은 원본 논문을 참고해주세요.

위 내용은 다중 모드 명령 학습: Google 이미지 생성 AI를 사용하면 쉽게 따라갈 수 있습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

딥마인드 로봇이 탁구를 치는데 포핸드와 백핸드가 공중으로 미끄러져 인간 초보자를 완전히 제압했다. 딥마인드 로봇이 탁구를 치는데 포핸드와 백핸드가 공중으로 미끄러져 인간 초보자를 완전히 제압했다. Aug 09, 2024 pm 04:01 PM

하지만 공원에 있는 노인을 이길 수는 없을까요? 파리올림픽이 본격화되면서 탁구가 많은 주목을 받고 있다. 동시에 로봇은 탁구 경기에서도 새로운 돌파구를 마련했습니다. 방금 DeepMind는 탁구 경기에서 인간 아마추어 선수 수준에 도달할 수 있는 최초의 학습 로봇 에이전트를 제안했습니다. 논문 주소: https://arxiv.org/pdf/2408.03906 DeepMind 로봇은 탁구를 얼마나 잘 치나요? 아마도 인간 아마추어 선수들과 동등할 것입니다: 포핸드와 백핸드 모두: 상대는 다양한 플레이 스타일을 사용하고 로봇도 견딜 수 있습니다: 다양한 스핀으로 서브를 받습니다. 그러나 게임의 강도는 그만큼 강렬하지 않은 것 같습니다. 공원에 있는 노인. 로봇용, 탁구용

최초의 기계식 발톱! Yuanluobao는 2024년 세계 로봇 회의에 등장하여 집에 들어갈 수 있는 최초의 체스 로봇을 출시했습니다. 최초의 기계식 발톱! Yuanluobao는 2024년 세계 로봇 회의에 등장하여 집에 들어갈 수 있는 최초의 체스 로봇을 출시했습니다. Aug 21, 2024 pm 07:33 PM

8월 21일, 2024년 세계로봇대회가 베이징에서 성대하게 개최되었습니다. SenseTime의 홈 로봇 브랜드 "Yuanluobot SenseRobot"은 전체 제품군을 공개했으며, 최근에는 Yuanluobot AI 체스 두는 로봇인 체스 프로페셔널 에디션(이하 "Yuanluobot SenseRobot")을 출시하여 세계 최초의 A 체스 로봇이 되었습니다. 집. Yuanluobo의 세 번째 체스 게임 로봇 제품인 새로운 Guoxiang 로봇은 AI 및 엔지니어링 기계 분야에서 수많은 특별한 기술 업그레이드와 혁신을 거쳤으며 처음으로 3차원 체스 말을 집는 능력을 실현했습니다. 가정용 로봇의 기계 발톱을 통해 체스 게임, 모두 체스 게임, 기보 복습 등과 같은 인간-기계 기능을 수행합니다.

클로드도 게으르게 됐어요! 네티즌 : 휴가를 보내는 법을 배우십시오 클로드도 게으르게 됐어요! 네티즌 : 휴가를 보내는 법을 배우십시오 Sep 02, 2024 pm 01:56 PM

개학이 코앞으로 다가왔습니다. 새 학기를 앞둔 학생들뿐만 아니라 대형 AI 모델도 스스로 관리해야 합니다. 얼마 전 레딧에는 클로드가 게으르다고 불평하는 네티즌들이 붐볐습니다. "레벨이 많이 떨어졌고, 자주 멈췄고, 심지어 출력도 매우 짧아졌습니다. 출시 첫 주에는 4페이지 전체 문서를 한 번에 번역할 수 있었지만 지금은 반 페이지도 출력하지 못합니다. !" https://www.reddit.com/r/ClaudeAI/comments/1by8rw8/something_just_feels_wrong_with_claude_in_the/ "클로드에게 완전히 실망했습니다"라는 제목의 게시물에

세계로봇컨퍼런스에서 '미래 노인돌봄의 희망'을 담은 국산 로봇이 포위됐다. 세계로봇컨퍼런스에서 '미래 노인돌봄의 희망'을 담은 국산 로봇이 포위됐다. Aug 22, 2024 pm 10:35 PM

베이징에서 열린 세계로봇컨퍼런스에서는 휴머노이드 로봇의 전시가 현장의 절대 화두가 됐다. 스타더스트 인텔리전트 부스에서는 AI 로봇 어시스턴트 S1이 덜시머, 무술, 서예 3대 퍼포먼스를 선보였다. 문학과 무술을 모두 갖춘 하나의 전시 공간은 수많은 전문 관객과 미디어를 끌어 모았습니다. 탄력 있는 현의 우아한 연주를 통해 S1은 정밀한 작동과 속도, 힘, 정밀성을 갖춘 절대적인 제어력을 보여줍니다. CCTV 뉴스는 '서예'의 모방 학습 및 지능형 제어에 대한 특별 보도를 진행했습니다. 회사 설립자 Lai Jie는 부드러운 움직임 뒤에 하드웨어 측면이 최고의 힘 제어와 가장 인간과 유사한 신체 지표(속도, 하중)를 추구한다고 설명했습니다. 등)이지만 AI측에서는 사람의 실제 움직임 데이터를 수집해 로봇이 강한 상황에 직면했을 때 더욱 강해지고 빠르게 진화하는 방법을 학습할 수 있다. 그리고 민첩하다

ACL 2024 시상식 발표: HuaTech의 Oracle 해독에 관한 최고의 논문 중 하나, GloVe Time Test Award ACL 2024 시상식 발표: HuaTech의 Oracle 해독에 관한 최고의 논문 중 하나, GloVe Time Test Award Aug 15, 2024 pm 04:37 PM

참가자들은 이번 ACL 컨퍼런스에서 많은 것을 얻었습니다. ACL2024는 6일간 태국 방콕에서 개최됩니다. ACL은 전산언어학 및 자연어 처리 분야 최고의 국제학술대회로 국제전산언어학회(International Association for Computational Linguistics)가 주최하고 매년 개최된다. ACL은 NLP 분야에서 학술 영향력 1위를 항상 차지하고 있으며, CCF-A 추천 컨퍼런스이기도 합니다. 올해로 62회째를 맞이하는 ACL 컨퍼런스에는 NLP 분야의 최신 저서가 400편 이상 접수됐다. 어제 오후 컨퍼런스에서는 최우수 논문과 기타 상을 발표했습니다. 이번에 최우수논문상 7개(미출판 2개), 우수주제상 1개, 우수논문상 35개가 있다. 이 컨퍼런스에서는 또한 3개의 리소스 논문상(ResourceAward)과 사회적 영향상(Social Impact Award)을 수상했습니다.

홍멍 스마트 트래블 S9과 풀시나리오 신제품 출시 컨퍼런스, 다수의 블록버스터 신제품이 함께 출시됐다 홍멍 스마트 트래블 S9과 풀시나리오 신제품 출시 컨퍼런스, 다수의 블록버스터 신제품이 함께 출시됐다 Aug 08, 2024 am 07:02 AM

오늘 오후 Hongmeng Zhixing은 공식적으로 새로운 브랜드와 신차를 환영했습니다. 8월 6일, Huawei는 Hongmeng Smart Xingxing S9 및 Huawei 전체 시나리오 신제품 출시 컨퍼런스를 개최하여 파노라마식 스마트 플래그십 세단 Xiangjie S9, 새로운 M7Pro 및 Huawei novaFlip, MatePad Pro 12.2인치, 새로운 MatePad Air, Huawei Bisheng을 선보였습니다. 레이저 프린터 X1 시리즈, FreeBuds6i, WATCHFIT3 및 스마트 스크린 S5Pro를 포함한 다양한 새로운 올-시나리오 스마트 제품, 스마트 여행, 스마트 오피스, 스마트 웨어에 이르기까지 화웨이는 풀 시나리오 스마트 생태계를 지속적으로 구축하여 소비자에게 스마트한 경험을 제공합니다. 만물인터넷. Hongmeng Zhixing: 스마트 자동차 산업의 업그레이드를 촉진하기 위한 심층적인 권한 부여 화웨이는 중국 자동차 산업 파트너와 손을 잡고

분산 인공지능 컨퍼런스 DAI 2024 Call for Papers: Agent Day, 강화학습의 아버지 Richard Sutton이 참석합니다! Yan Shuicheng, Sergey Levine 및 DeepMind 과학자들이 기조 연설을 할 예정입니다. 분산 인공지능 컨퍼런스 DAI 2024 Call for Papers: Agent Day, 강화학습의 아버지 Richard Sutton이 참석합니다! Yan Shuicheng, Sergey Levine 및 DeepMind 과학자들이 기조 연설을 할 예정입니다. Aug 22, 2024 pm 08:02 PM

컨퍼런스 소개 과학기술의 급속한 발전과 함께 인공지능은 사회 발전을 촉진하는 중요한 힘이 되었습니다. 이 시대에 우리는 분산인공지능(DAI)의 혁신과 적용을 목격하고 참여할 수 있어 행운입니다. 분산 인공지능(Distributed Artificial Intelligence)은 인공지능 분야의 중요한 한 분야로, 최근 몇 년간 점점 더 많은 주목을 받고 있습니다. 대규모 언어 모델(LLM) 기반 에이전트가 갑자기 등장했습니다. 대규모 모델의 강력한 언어 이해와 생성 기능을 결합하여 자연어 상호 작용, 지식 추론, 작업 계획 등에 큰 잠재력을 보여주었습니다. AIAgent는 빅 언어 모델을 이어받아 현재 AI계에서 화제가 되고 있습니다. 오

Li Feifei 팀은 로봇에 공간 지능을 제공하고 GPT-4o를 통합하기 위해 ReKep을 제안했습니다. Li Feifei 팀은 로봇에 공간 지능을 제공하고 GPT-4o를 통합하기 위해 ReKep을 제안했습니다. Sep 03, 2024 pm 05:18 PM

비전과 로봇 학습의 긴밀한 통합. 최근 화제를 모으고 있는 1X 휴머노이드 로봇 네오(NEO)와 두 개의 로봇 손이 원활하게 협력해 옷 개기, 차 따르기, 신발 싸기 등을 하는 모습을 보면 마치 로봇 시대로 접어들고 있다는 느낌을 받을 수 있다. 실제로 이러한 부드러운 움직임은 첨단 로봇 기술 + 정교한 프레임 디자인 + 다중 모드 대형 모델의 산물입니다. 우리는 유용한 로봇이 종종 환경과 복잡하고 절묘한 상호작용을 요구한다는 것을 알고 있으며, 환경은 공간적, 시간적 영역에서 제약으로 표현될 수 있습니다. 예를 들어, 로봇이 차를 따르도록 하려면 먼저 로봇이 찻주전자 손잡이를 잡고 차를 흘리지 않고 똑바로 세운 다음, 주전자 입구와 컵 입구가 일치할 때까지 부드럽게 움직여야 합니다. 을 누른 다음 주전자를 특정 각도로 기울입니다. 이것

See all articles