목차
논문 아이디어:
종이 디자인:
실험 결과:
요약:
인용문:
기술 주변기기 일체 포함 25km² 역사상 최대 규모 재건축! NeRF-XL: 멀티카드 합동훈련을 정말 효과적으로 활용!

25km² 역사상 최대 규모 재건축! NeRF-XL: 멀티카드 합동훈련을 정말 효과적으로 활용!

Apr 30, 2024 pm 04:50 PM
모델 기차

원제: NeRF-XL: Scaling NeRFs with Multiple GPUs

논문 링크: https://research.nvidia.com/labs/toronto-ai/nerfxl/assets/nerfxl.pdf

프로젝트 링크: https:/ / /research.nvidia.com/labs/toronto-ai/nerfxl/

저자 소속: NVIDIA University of California, Berkeley

25km² 역사상 최대 규모 재건축! NeRF-XL: 멀티카드 합동훈련을 정말 효과적으로 활용!

논문 아이디어:

본 논문은 NeRF-XL을 제안하는 원리입니다. NeRF(신경선장)를 여러 GPU(그래픽 처리 장치)에 분산하여 임의의 대용량 NeRF 훈련 및 렌더링을 가능하게 하는 방법입니다. 이 논문에서는 먼저 대규모 장면을 독립적으로 훈련된 여러 NeRF로 분해하는 여러 가지 기존 GPU 방법을 검토하고 [9, 15, 17] 훈련을 위해 추가 컴퓨팅 리소스(GPU)를 사용할 때 문제가 되는 이러한 방법의 몇 가지 근본적인 문제를 식별하여 재구성 개선을 방해합니다. 품질. NeRF-XL은 이러한 문제를 해결하고 단순히 더 많은 하드웨어를 사용하여 다양한 매개변수를 가진 NeRF를 훈련하고 렌더링할 수 있도록 합니다. 우리 접근 방식의 핵심은 새로운 분산 훈련 및 렌더링 공식으로, 이는 고전적인 단일 GPU 사례와 수학적으로 동일하며 GPU 간의 통신을 최소화합니다. 임의로 많은 수의 매개변수로 NeRF의 잠금을 해제함으로써 우리의 방법은 NeRF의 GPU 스케일링 법칙을 최초로 공개하여 매개변수 수가 증가함에 따라 향상된 재구성 품질을 보여주고 더 많은 GPU를 사용할수록 속도가 증가합니다. 이 논문은 약 258K 이미지를 포함하고 25 평방 킬로미터의 도시 지역을 포괄하는 MatrixCity [5]를 포함한 다양한 데이터 세트에서 NeRF-XL의 효율성을 보여줍니다.

종이 디자인:

새로운 관점 합성의 최근 발전으로 NeRF(신경 방사선장)를 캡처하는 능력이 크게 향상되어 프로세스에 더 쉽게 접근할 수 있게 되었습니다. 이러한 발전을 통해 우리는 더 큰 장면과 그 안에서 더 미세한 세부 사항을 재구성할 수 있습니다. 공간 규모를 늘리거나(예: 도시의 수 킬로미터 캡처) 세부 수준을 높이거나(예: 들판의 풀잎 스캔) 캡처된 장면의 범위를 넓히려면 더 많은 양의 정보를 NeRF에 통합해야 합니다. 정확한 재구성을 달성합니다. 따라서 정보가 풍부한 장면의 경우 재구성에 필요한 훈련 가능한 매개변수 수가 단일 GPU의 메모리 용량을 초과할 수 있습니다.

이 논문에서는 여러 GPU에 걸쳐 신경 방사형 장면(NeRF)을 효율적으로 배포하기 위한 원칙적인 알고리즘인 NeRF-XL을 제안합니다. 이 기사의 방법을 사용하면 하드웨어 리소스를 늘리는 것만으로 정보 콘텐츠가 많은 장면(대규모 및 세부 기능이 포함된 장면 포함)을 캡처할 수 있습니다. NeRF-XL의 핵심은 일련의 분리된 공간 영역에 NeRF 매개변수를 할당하고 GPU에서 공동으로 훈련시키는 것입니다. 역방향 전파에서 기울기를 동기화하는 기존 분산 훈련 프로세스와 달리, 우리의 방법은 순방향 전파에서만 정보를 동기화하면 됩니다. 또한 분산 설정에서 방정식 및 관련 손실 항을 신중하게 렌더링함으로써 GPU 간에 필요한 데이터 전송을 크게 줄입니다. 이 새로운 재작성은 훈련 및 렌더링 효율성을 향상시킵니다. 이 방법의 유연성과 확장성을 통해 이 문서에서는 여러 GPU를 효율적으로 최적화하고 효율적인 성능 최적화를 위해 여러 GPU를 사용할 수 있습니다.

우리 작업은 독립적인 입체 NeRF 세트를 훈련하여 대규모 장면을 모델링하기 위해 GPU 알고리즘을 채택한 최근 접근 방식과 대조됩니다[9, 15, 17]. 이러한 방법에는 GPU 간의 통신이 필요하지 않지만 각 NeRF는 배경 영역을 포함한 전체 공간을 모델링해야 합니다. 결과적으로 GPU 수가 증가함에 따라 모델 용량의 중복성이 증가합니다. 또한 이러한 방법은 렌더링 시 NeRF의 혼합이 필요하므로 시각적 품질이 저하되고 겹치는 영역에 아티팩트가 발생합니다. 따라서 NeRF-XL과 달리 이러한 방법은 훈련에 더 많은 모델 매개변수(더 많은 GPU와 동일)를 사용하고 시각적 품질 향상에 실패합니다.

이 문서에서는 거리 스캔, 드론 비행, 객체 중심 비디오를 포함한 다양한 캡처 사례를 통해 우리 접근 방식의 효율성을 보여줍니다. 사례는 작은 장면(10제곱미터)부터 전체 도시(25제곱킬로미터)까지 다양합니다. 우리의 실험에 따르면 최적화 프로세스에 더 많은 컴퓨팅 리소스를 할당할수록 NeRF-XL은 향상된 시각적 품질(PSNR로 측정)과 렌더링 속도를 달성하기 시작합니다. 따라서 NeRF-XL을 사용하면 모든 공간 규모 및 세부 장면에서 임의의 용량으로 NeRF를 훈련할 수 있습니다.

25km² 역사상 최대 규모 재건축! NeRF-XL: 멀티카드 합동훈련을 정말 효과적으로 활용!

그림 1: 이 기사의 원리 기반 다중 GPU 분산 훈련 알고리즘은 NeRF를 대규모로 확장할 수 있습니다.

25km² 역사상 최대 규모 재건축! NeRF-XL: 멀티카드 합동훈련을 정말 효과적으로 활용!

그림 2: 독립적 훈련 및 다중 GPU 공동 훈련. 여러 NeRF [9, 15, 18]를 독립적으로 훈련하려면 각 NeRF가 초점 영역과 주변 환경을 모두 모델링해야 하므로 모델 용량이 중복됩니다. 대조적으로, 우리의 공동 훈련 방법은 중첩되지 않는 NeRF를 사용하므로 중복성이 없습니다.

25km² 역사상 최대 규모 재건축! NeRF-XL: 멀티카드 합동훈련을 정말 효과적으로 활용!

그림 3: 독립적인 교육에는 새로운 관점이 종합될 때 혼합이 필요합니다. 블렌딩이 2D[9, 15] 또는 3D[18]에서 수행되는지 여부에 관계없이 렌더링에 흐림이 도입됩니다.

25km² 역사상 최대 규모 재건축! NeRF-XL: 멀티카드 합동훈련을 정말 효과적으로 활용!

그림 4: 독립적인 교육으로 인해 다양한 카메라 최적화가 이루어집니다. NeRF에서는 부정확한 카메라 자체 또는 다른 모든 카메라와 기본 3D 장면을 변환하여 카메라 최적화를 달성할 수 있습니다. 따라서 카메라 최적화와 함께 여러 NeRF를 독립적으로 훈련하면 카메라 수정 및 장면 형상의 불일치가 발생하여 하이브리드 렌더링이 더 어려워질 수 있습니다.

25km² 역사상 최대 규모 재건축! NeRF-XL: 멀티카드 합동훈련을 정말 효과적으로 활용!

그림 5: 3D 블렌딩으로 인해 발생할 수 있는 시각적 아티팩트. 왼쪽 이미지는 2개의 GPU를 사용하여 훈련된 MegaNeRF의 결과를 보여줍니다. 0% 중첩에서는 독립적인 훈련으로 인해 경계에 아티팩트가 나타나고, 15% 중첩에서는 3D 블렌딩으로 인해 심각한 아티팩트가 나타납니다. 오른쪽 이미지는 이 아티팩트의 원인을 보여줍니다. 독립적으로 훈련된 각 NeRF는 올바른 색상을 렌더링하지만 혼합된 NeRF는 올바른 색상 렌더링을 보장하지 않습니다.

25km² 역사상 최대 규모 재건축! NeRF-XL: 멀티카드 합동훈련을 정말 효과적으로 활용!

그림 6: 이 기사의 훈련 과정. 우리의 방법은 모든 GPU에서 여러 NeRF를 공동으로 훈련하며, 각 NeRF는 분리된 공간 영역을 포함합니다. GPU 간의 통신은 순방향 패스에서만 발생하고 역방향 패스에서는 발생하지 않습니다(회색 화살표로 표시됨). (a) 이 논문은 각 NeRF를 평가하여 샘플 색상과 밀도를 얻은 다음 전역 볼륨 렌더링을 위해 이 값을 다른 모든 GPU에 브로드캐스팅하여 구현할 수 있습니다(섹션 4.2 참조). (b) 볼륨 렌더링 방정식을 다시 작성함으로써 이 논문은 데이터 전송량을 광선당 하나의 값으로 크게 줄여 효율성을 향상시킬 수 있습니다(섹션 4.3 참조).

실험 결과:

25km² 역사상 최대 규모 재건축! NeRF-XL: 멀티카드 합동훈련을 정말 효과적으로 활용!

그림 7: 정성적 비교. 이전 작업과 비교하여 우리의 방법은 다중 GPU 구성을 효과적으로 활용하고 모든 유형의 데이터에 대한 성능을 향상시킵니다.

25km² 역사상 최대 규모 재건축! NeRF-XL: 멀티카드 합동훈련을 정말 효과적으로 활용!

그림 8: 정량적 비교. 독립적인 훈련을 기반으로 한 이전 작업은 추가 GPU를 추가하여 성능 향상을 달성하지 못한 반면, 우리의 방법은 훈련 리소스가 증가함에 따라 렌더링 품질과 속도가 향상됩니다.

25km² 역사상 최대 규모 재건축! NeRF-XL: 멀티카드 합동훈련을 정말 효과적으로 활용!

그림 9: 이 문서에 있는 방법의 확장성. GPU가 많을수록 더 많은 학습 가능한 매개변수가 허용되므로 모델 용량이 늘어나고 품질이 향상됩니다.

25km² 역사상 최대 규모 재건축! NeRF-XL: 멀티카드 합동훈련을 정말 효과적으로 활용!

그림 10: 대규모 캡처에서 더 많은 렌더링 결과. 이 문서에서는 더 많은 GPU를 사용하여 더 큰 캡처 데이터 세트에서 우리 방법의 견고성을 테스트합니다. 이러한 데이터에 대한 비디오 둘러보기는 이 기사의 웹페이지를 참조하세요.

25km² 역사상 최대 규모 재건축! NeRF-XL: 멀티카드 합동훈련을 정말 효과적으로 활용!

그림 11: University4 데이터세트의 PyTorch DDP 비교. PyTorch DDP(Distributed Data Parallel)는 GPU 전체에 빛을 분산시켜 렌더링 속도를 높이도록 설계되었습니다. 이와 대조적으로 우리의 방법은 매개변수를 GPU 전체에 분산시켜 클러스터에 있는 단일 GPU의 메모리 제한을 극복하고 더 나은 품질을 위해 모델 용량을 확장할 수 있습니다.

25km² 역사상 최대 규모 재건축! NeRF-XL: 멀티카드 합동훈련을 정말 효과적으로 활용!

그림 12: University4의 동기화 비용. 파티션 기반 볼륨 렌더링(섹션 4.3 참조)은 타일 기반 통신을 허용합니다. 이는 원래 샘플 기반 통신(섹션 4.2 참조)보다 훨씬 저렴하므로 더 빠른 렌더링이 가능합니다.

요약:

요약하자면, 이 논문은 대규모 장면을 독립적으로 훈련된 NeRF(Neural Radiation Fields)로 분해하는 기존 방법을 재검토하고 추가 컴퓨팅 리소스(GPU) 문제의 효과적인 활용을 방해하는 중요한 장벽을 발견합니다. 이는 대규모 NeRF 성능을 향상시키기 위해 다중 GPU 설정을 활용하려는 핵심 목표와 모순됩니다. 따라서 이 문서에서는 다중 GPU 설정을 효율적으로 활용하고 여러 개의 중첩되지 않는 NeRF를 공동으로 훈련하여 모든 규모에서 NeRF 성능을 향상시킬 수 있는 원리 알고리즘인 NeRF-XL을 소개합니다. 중요한 것은 우리의 방법이 어떠한 경험적 규칙에도 의존하지 않고 다중 GPU 설정에서 NeRF의 스케일링 법칙을 따르며 다양한 유형의 데이터에 적용 가능하다는 것입니다.

인용문:

@misc{li2024nerfxl,title={NeRF-XL: Scaling NeRFs with Multiple GPUs}, author={Ruilong Li and Sanja Fidler and Angjoo Kanazawa and Francis Williams},year={2024},eprint={2404.16221},archivePrefix={arXiv},primaryClass={cs.CV}}
로그인 후 복사

위 내용은 25km² 역사상 최대 규모 재건축! NeRF-XL: 멀티카드 합동훈련을 정말 효과적으로 활용!의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

오픈 소스! ZoeDepth를 넘어! DepthFM: 빠르고 정확한 단안 깊이 추정! 오픈 소스! ZoeDepth를 넘어! DepthFM: 빠르고 정확한 단안 깊이 추정! Apr 03, 2024 pm 12:04 PM

0. 이 글은 어떤 내용을 담고 있나요? 우리는 다재다능하고 빠른 최첨단 생성 단안 깊이 추정 모델인 DepthFM을 제안합니다. DepthFM은 전통적인 깊이 추정 작업 외에도 깊이 인페인팅과 같은 다운스트림 작업에서 최첨단 기능을 보여줍니다. DepthFM은 효율적이며 몇 가지 추론 단계 내에서 깊이 맵을 합성할 수 있습니다. 이 작품을 함께 읽어보아요~ 1. 논문 정보 제목: DepthFM: FastMoncularDepthEstimationwithFlowMatching 저자: MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. 중국의 기능은 GPT-4와 비슷하며 가격은 GPT-4-Turbo의 거의 1%에 불과합니다. 세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. 중국의 기능은 GPT-4와 비슷하며 가격은 GPT-4-Turbo의 거의 1%에 불과합니다. May 07, 2024 pm 04:13 PM

기존 컴퓨팅을 능가할 뿐만 아니라 더 낮은 비용으로 더 효율적인 성능을 달성하는 인공 지능 모델을 상상해 보세요. 이것은 공상과학 소설이 아닙니다. DeepSeek-V2[1], 세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. DeepSeek-V2는 경제적인 훈련과 효율적인 추론이라는 특징을 지닌 전문가(MoE) 언어 모델의 강력한 혼합입니다. 이는 236B 매개변수로 구성되며, 그 중 21B는 각 마커를 활성화하는 데 사용됩니다. DeepSeek67B와 비교하여 DeepSeek-V2는 더 강력한 성능을 제공하는 동시에 훈련 비용을 42.5% 절감하고 KV 캐시를 93.3% 줄이며 최대 생성 처리량을 5.76배로 늘립니다. DeepSeek은 일반 인공지능을 연구하는 회사입니다.

AI가 수학적 연구를 전복시킨다! 필즈상 수상자이자 중국계 미국인 수학자, Terence Tao가 좋아하는 11개 논문 발표 | AI가 수학적 연구를 전복시킨다! 필즈상 수상자이자 중국계 미국인 수학자, Terence Tao가 좋아하는 11개 논문 발표 | Apr 09, 2024 am 11:52 AM

AI는 실제로 수학을 변화시키고 있습니다. 최근 이 문제에 주목하고 있는 타오저쉬안(Tao Zhexuan)은 '미국수학회지(Bulletin of the American Mathematical Society)' 최신호를 게재했다. '기계가 수학을 바꿀 것인가?'라는 주제를 중심으로 많은 수학자들이 그들의 의견을 표현했습니다. 저자는 필즈상 수상자 Akshay Venkatesh, 중국 수학자 Zheng Lejun, 뉴욕대학교 컴퓨터 과학자 Ernest Davis 등 업계의 유명 학자들을 포함해 강력한 라인업을 보유하고 있습니다. AI의 세계는 극적으로 변했습니다. 이 기사 중 상당수는 1년 전에 제출되었습니다.

안녕하세요, 일렉트릭 아틀라스입니다! 보스턴 다이나믹스 로봇 부활, 180도 이상한 움직임에 겁먹은 머스크 안녕하세요, 일렉트릭 아틀라스입니다! 보스턴 다이나믹스 로봇 부활, 180도 이상한 움직임에 겁먹은 머스크 Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas가 공식적으로 전기 로봇 시대에 돌입했습니다! 어제 유압식 Atlas가 역사의 무대에서 "눈물을 흘리며" 물러났습니다. 오늘 Boston Dynamics는 전기식 Atlas가 작동 중이라고 발표했습니다. 상업용 휴머노이드 로봇 분야에서는 보스턴 다이내믹스가 테슬라와 경쟁하겠다는 각오를 다진 것으로 보인다. 새 영상은 공개된 지 10시간 만에 이미 100만 명이 넘는 조회수를 기록했다. 옛 사람들은 떠나고 새로운 역할이 등장하는 것은 역사적 필연이다. 올해가 휴머노이드 로봇의 폭발적인 해라는 것은 의심의 여지가 없습니다. 네티즌들은 “로봇의 발전으로 올해 개막식도 인간처럼 생겼고, 자유도도 인간보다 훨씬 크다. 그런데 정말 공포영화가 아닌가?”라는 반응을 보였다. 영상 시작 부분에서 아틀라스는 바닥에 등을 대고 가만히 누워 있는 모습입니다. 다음은 입이 떡 벌어지는 내용이다

MLP를 대체하는 KAN은 오픈소스 프로젝트를 통해 컨볼루션으로 확장되었습니다. MLP를 대체하는 KAN은 오픈소스 프로젝트를 통해 컨볼루션으로 확장되었습니다. Jun 01, 2024 pm 10:03 PM

이달 초 MIT와 기타 기관의 연구자들은 MLP에 대한 매우 유망한 대안인 KAN을 제안했습니다. KAN은 정확성과 해석성 측면에서 MLP보다 뛰어납니다. 그리고 매우 적은 수의 매개변수로 더 많은 수의 매개변수를 사용하여 실행되는 MLP보다 성능이 뛰어날 수 있습니다. 예를 들어 저자는 KAN을 사용하여 더 작은 네트워크와 더 높은 수준의 자동화로 DeepMind의 결과를 재현했다고 밝혔습니다. 구체적으로 DeepMind의 MLP에는 약 300,000개의 매개변수가 있는 반면 KAN에는 약 200개의 매개변수만 있습니다. KAN은 MLP와 같이 강력한 수학적 기반을 가지고 있으며, KAN은 Kolmogorov-Arnold 표현 정리를 기반으로 합니다. 아래 그림과 같이 KAN은

FisheyeDetNet: 어안 카메라를 기반으로 한 최초의 표적 탐지 알고리즘 FisheyeDetNet: 어안 카메라를 기반으로 한 최초의 표적 탐지 알고리즘 Apr 26, 2024 am 11:37 AM

표적 탐지는 자율주행 시스템에서 상대적으로 성숙한 문제이며, 그 중 보행자 탐지는 가장 먼저 배포되는 알고리즘 중 하나입니다. 대부분의 논문에서 매우 포괄적인 연구가 수행되었습니다. 그러나 서라운드 뷰를 위한 어안 카메라를 사용한 거리 인식은 상대적으로 덜 연구되었습니다. 큰 방사형 왜곡으로 인해 표준 경계 상자 표현은 어안 카메라에서 구현하기 어렵습니다. 위의 설명을 완화하기 위해 확장된 경계 상자, 타원 및 일반 다각형 디자인을 극/각 표현으로 탐색하고 인스턴스 분할 mIOU 메트릭을 정의하여 이러한 표현을 분석합니다. 제안된 다각형 형태의 모델 fisheyeDetNet은 다른 모델보다 성능이 뛰어나며 동시에 자율 주행을 위한 Valeo fisheye 카메라 데이터 세트에서 49.5% mAP를 달성합니다.

초지능의 생명력이 깨어난다! 하지만 자동 업데이트 AI가 등장하면서 엄마들은 더 이상 데이터 병목 현상을 걱정할 필요가 없습니다. 초지능의 생명력이 깨어난다! 하지만 자동 업데이트 AI가 등장하면서 엄마들은 더 이상 데이터 병목 현상을 걱정할 필요가 없습니다. Apr 29, 2024 pm 06:55 PM

세상은 미친 듯이 큰 모델을 만들고 있습니다. 인터넷의 데이터만으로는 충분하지 않습니다. 훈련 모델은 '헝거게임'처럼 생겼고, 전 세계 AI 연구자들은 이러한 데이터를 탐식하는 사람들에게 어떻게 먹이를 줄지 고민하고 있습니다. 이 문제는 다중 모드 작업에서 특히 두드러집니다. 아무것도 할 수 없던 시기에, 중국 인민대학교 학과의 스타트업 팀은 자체 새로운 모델을 사용하여 중국 최초로 '모델 생성 데이터 피드 자체'를 현실화했습니다. 또한 이해 측면과 생성 측면의 두 가지 접근 방식으로 양측 모두 고품질의 다중 모드 새로운 데이터를 생성하고 모델 자체에 데이터 피드백을 제공할 수 있습니다. 모델이란 무엇입니까? Awaker 1.0은 중관촌 포럼에 최근 등장한 대형 멀티모달 모델입니다. 팀은 누구입니까? 소폰 엔진. 런민대학교 힐하우스 인공지능대학원 박사과정 학생인 Gao Yizhao가 설립했습니다.

공장에서 일하는 테슬라 로봇, 머스크 : 올해 손의 자유도가 22도에 달할 것! 공장에서 일하는 테슬라 로봇, 머스크 : 올해 손의 자유도가 22도에 달할 것! May 06, 2024 pm 04:13 PM

테슬라의 로봇 옵티머스(Optimus)의 최신 영상이 공개됐는데, 이미 공장에서 작동이 가능한 상태다. 정상 속도에서는 배터리(테슬라의 4680 배터리)를 다음과 같이 분류합니다. 공식은 또한 20배 속도로 보이는 모습을 공개했습니다. 작은 "워크스테이션"에서 따고 따고 따고 : 이번에 출시됩니다. 영상에는 옵티머스가 공장에서 이 작업을 전 과정에 걸쳐 사람의 개입 없이 완전히 자율적으로 완료하는 모습이 담겨 있습니다. 그리고 Optimus의 관점에서 보면 자동 오류 수정에 중점을 두고 구부러진 배터리를 집어 넣을 수도 있습니다. NVIDIA 과학자 Jim Fan은 Optimus의 손에 대해 높은 평가를 했습니다. Optimus의 손은 세계의 다섯 손가락 로봇 중 하나입니다. 가장 능숙합니다. 손은 촉각적일 뿐만 아니라

See all articles