> 기술 주변기기 > 일체 포함 > 마커스가 머스크에게 맞서다: 당신은 여전히 ​​다목적 가정용 로봇을 만들고 싶어 하는군요. 그건 어리석은 일입니다!

마커스가 머스크에게 맞서다: 당신은 여전히 ​​다목적 가정용 로봇을 만들고 싶어 하는군요. 그건 어리석은 일입니다!

王林
풀어 주다: 2023-04-12 08:25:02
앞으로
1199명이 탐색했습니다.

이틀 전 Google은 로봇-PaLM-SayCan에 대한 새로운 연구를 시작했습니다.

간단히 말하면 "당신은 이미 성숙한 로봇이고 스스로 나에게 봉사하는 법을 배울 수 있습니다."

마커스가 머스크에게 맞서다: 당신은 여전히 ​​다목적 가정용 로봇을 만들고 싶어 하는군요. 그건 어리석은 일입니다!

하지만 마커스는 그렇게 생각하지 않습니다.

알겠습니다. "터미네이터"가 되고 싶다는 뜻입니다

성능으로 볼 때 Google의 새로운 로봇 PaLM-SayCan은 정말 멋지네요.

인간이 말하면 로봇은 주저 없이 듣고 즉시 행동합니다.

이 로봇은 "부엌에서 프레즐을 가져와"라고 억지로 말할 필요가 없습니다. "배가 고프다"고 말하면 스스로 테이블로 걸어갑니다. 간식 좀 가져다줄게.

쓸데없는 말이나 자세한 내용은 필요하지 않습니다. Marcus는 다음과 같이 인정합니다. 제가 본 로봇 Rosie와 가장 가까운 로봇입니다.

마커스가 머스크에게 맞서다: 당신은 여전히 ​​다목적 가정용 로봇을 만들고 싶어 하는군요. 그건 어리석은 일입니다!

이 프로젝트에서 알파벳의 역사적으로 독립적인 두 부서인 Everyday Robots와 Google Brain이 많은 에너지를 투자했음을 알 수 있습니다. 프로젝트에 참여한 Chelsea Finn과 Sergey Levine은 모두 학술 전문가입니다.

분명히 Google은 이런 멋진 로봇을 만들기 위해 많은 리소스(예: 사전 훈련된 수많은 언어 모델, 휴머노이드 로봇, 많은 클라우드 컴퓨팅 등)를 투자했습니다.

Marcus가 말했습니다: 그들이 로봇을 그렇게 잘 만들 수 있다는 사실은 전혀 놀랍지 않습니다. 조금 걱정됩니다. 우리가 이것을 해야 할까요?

Marcus는 두 가지 문제가 있다고 생각합니다.

"Bull in the china shop"

우선, 우리 모두가 알고 있듯이, 이 새로운 시스템이 의존하는 언어 기술에는 그 자체의 문제가 있습니다. 둘째, 로봇의 맥락에서는 문제가 훨씬 더 클 수 있습니다. .

일단 로봇에 대해서는 이야기하지 않겠습니다. 우리는 소위 대형 언어 모델이 황소와 같다는 것을 이미 알고 있습니다. 강력하고 강력하며 무모하게 중국 상점을 휩쓸고 있습니다. 그들은 한 순간에 목표물을 똑바로 겨냥한 다음 알 수 없는 위험으로 방향을 틀 수 있습니다. 특히 생생한 예는 의료 고문으로서 GPT-3의 유용성을 탐구하는 프랑스 회사 Nabla에서 나왔습니다.

마커스가 머스크에게 맞서다: 당신은 여전히 ​​다목적 가정용 로봇을 만들고 싶어 하는군요. 그건 어리석은 일입니다!

이와 같은 수많은 질문이 있습니다.

Alphabet의 또 다른 자회사인 DeepMind는 공정성, 데이터 유출, 정보 등의 주제를 다루면서 대규모 언어 모델에 대한 21개의 사회적, 윤리적 문제를 제안했습니다.

마커스가 머스크에게 맞서다: 당신은 여전히 ​​다목적 가정용 로봇을 만들고 싶어 하는군요. 그건 어리석은 일입니다!

문서 주소: https://arxiv.org/pdf/2112.04359.pdf

그러나 그들은 이에 대해 언급하지 않았습니다. 특정 모델에 내장된 로봇은 애완동물을 죽이거나 파괴할 수 있습니다. 당신의 집.

이 점은 정말 주의해야 합니다. PaLM-SayCam 실험은 21개의 질문을 업데이트해야 함을 명확하게 보여줍니다.

예를 들어, 대규모 언어 모델은 사람들이 자살하거나 대량 학살 협정에 서명하는 것을 제안할 수도 있고 독성이 있을 수도 있습니다.

그리고 그들은 훈련 세트의 세부 사항에 매우 (과도하게)민감합니다. 이러한 훈련 세트를 로봇에 넣을 때 그들이 당신을 오해하거나 당신의 요청의 의미를 완전히 이해하지 못할 경우, 당신은 큰 문제가 발생합니다.

PaLM-SayCan의 직원들은 적어도 이런 일이 발생하지 않도록 생각했습니다.

로봇에서 오는 모든 요청에 ​​대해 로봇은 타당성 검사를 수행합니다. 언어 모델은 사용자가 원하는 작업이 실제로 완료될 수 있는지 여부를 추론합니다.

근데 이거 완전 무결점인가요? 사용자가 시스템에 고양이를 식기 세척기에 넣어달라고 요청하는 경우 이는 실제로 가능하지만 과연 안전한가요? 윤리적인가?

마커스가 머스크에게 맞서다: 당신은 여전히 ​​다목적 가정용 로봇을 만들고 싶어 하는군요. 그건 어리석은 일입니다!

시스템이 인간을 오해하는 경우에도 유사한 문제가 발생할 수 있습니다.

예를 들어, 사람들이 "식기세척기에 넣어"라고 말하고 대형 언어 모델이 "it"의 지시 대상을 고양이라는 단어로 처리하는 경우 사용자는 다른 것을 의미합니다.

대규모 언어 모델에 대한 모든 연구를 통해 우리는 이러한 모델이 사용자의 의도를 100% 명확하게 이해할 수 있을 만큼 신뢰할 수 없다는 사실을 알게 됩니다. 오해는 불가피합니다. 이러한 오해 중 일부는 이러한 시스템이 실제로 엄격한 조사를 받지 않으면 재앙으로 이어질 수 있습니다.

Maayan Harel은 로봇이 거실에 있는 모든 것을 치우라는 지시를 받는 Rebooting AI를 위해 이 멋진 그림을 그렸습니다. 그 이야기는 주인이 미친 청소 로봇에게 고양이를 던져야 한다는 이야기인가요?

현실 세계와의 격차마커스가 머스크에게 맞서다: 당신은 여전히 ​​다목적 가정용 로봇을 만들고 싶어 하는군요. 그건 어리석은 일입니다!

현실은 현재 대규모 언어 모델을 괴롭히는 많은 "정렬" 문제를 해결할 수 있는 실행 가능한 방법이 없다는 것입니다.

Marcus가 앞서 언급했듯이 대규모 언어 모델은 주변 세계에 대한 풍부한 지식을 전달하는 모델이 아니라 단지 피상적인 통계 시뮬레이션일 뿐입니다. 세상에 대해 거의 알지 못하는 언어 시스템에서 로봇을 구축하는 것은 성공할 것 같지 않습니다.

이것이 바로 Google의 새로운 시스템이 수행하는 작업입니다. 피상적이고 절망적인 언어 이해자와 강력하고 잠재적으로 위험한 인간형 로봇을 결합하는 것입니다. 속담처럼, 쓰레기는 들어오고, 쓰레기는 나온다.

프레젠테이션과 현실 사이에는 종종 큰 차이가 있다는 점을 기억하세요.

자율 주행 자동차 시연은 수십 년 동안 이어졌지만 안정적으로 작동하도록 하는 것은 우리가 생각했던 것보다 훨씬 어려운 것으로 입증되었습니다.

Google 공동 창업자인 Sergey Brin은 2012년에 2017년까지 무인 자동차를 출시할 것이라고 약속했습니다. 현재는 2022년이지만 아직은 제한된 실험 테스트 단계에 있습니다.

Marcus는 2016년에 핵심 문제는 극단적인 경우라고 경고했습니다.

자율 주행 자동차는 일반적인 상황에서 뛰어난 성능을 발휘합니다. 팔로알토에서 화창한 날에 꺼내놓으면 아주 좋습니다. 눈이 오거나 비가 내리는 곳, 또는 이전에 본 적이 없는 곳에 놓아두면 아이들에게는 어려울 것입니다. Steven Levy는 Google의 자율주행 자동차 공장에 대한 훌륭한 기사를 가지고 있으며, 2015년 말에 마침내 잎을 인식하는 시스템을 갖게 된 것이 어떻게 큰 승리를 거두었는지에 대해 이야기합니다. 시스템은 나뭇잎을 인식할 수 있는데 이는 훌륭하지만 데이터가 많지 않은 경우는 흔하지 않습니다.

이것이 여전히 핵심 문제입니다. 최근 몇 년 동안 자율주행차 업계가 이러한 현실을 깨달았습니다. Waymo AI/ML 엔지니어 Warren Craddock이 최근 전체 내용을 읽어야 할 스레드에서 다음과 같이 말했습니다.

여기에 셀 수 없이 많은 예외 사례가 있습니다. 수많은 할로윈 의상이 있습니다. 빨간불을 달리는 속도는 연속적이다. 극단적인 경우를 열거할 수 없습니다. 극단적인 경우를 열거할 수 있다고 해도 도움이 되지 않습니다!

그리고 가장 중요한 것은 -

마커스가 머스크에게 맞서다: 당신은 여전히 ​​다목적 가정용 로봇을 만들고 싶어 하는군요. 그건 어리석은 일입니다!

특정 사례도 본질적으로 무한하다는 점을 이해하면 문제가 얼마나 복잡한지 알 수 있습니다. 심층 네트워크의 특성, 즉 기본 메커니즘으로 인해 극단적인 사례는 쉽게 잊혀질 수 있습니다. 극단적인 경우를 한 번 경험한 후 사라지게 할 수는 없습니다.

마커스가 머스크에게 맞서다: 당신은 여전히 ​​다목적 가정용 로봇을 만들고 싶어 하는군요. 그건 어리석은 일입니다!

Google의 새로운 시스템과 같은 자연어 인터페이스를 갖춘 봇이나 봇이 이러한 문제에서 면제된다고 생각할 이유가 없습니다.

해석 가능성 문제

또 다른 문제는 해석 가능성입니다.

Google은 시스템을 어느 정도 해석 가능하게 만들기 위해 많은 노력을 기울였으나 마이크로프로세서, USB 드라이버 및 대형 항공기 설계에 사용되는 종류의 대규모 언어 모델을 결합할 수 있는 확실한 방법을 찾지 못했습니다. 일반적으로 사용되는 공식 검증 방법 )을 하나로 합쳤습니다.

예, GPT-3 또는 PaLM을 사용하여 초현실적인 산문을 작성하기 위해 검증을 통과할 필요가 없습니다. 시스템이 일관되거나 올바른지 확인하지 않고도 Google 엔지니어가 소프트웨어가 지각력이 있다고 믿도록 속일 수도 있습니다.

하지만 다양한 집안일을 처리하는 휴머노이드 홈 로봇(룸바의 진공청소기뿐만 아니라)은 사용자와 단순히 어울리는 것 이상을 수행해야 하며 사용자 요청을 안정적이고 안전하게 처리해야 합니다. 더 높은 수준의 설명 가능성과 검증 가능성이 없다면 이러한 수준의 보안을 어떻게 달성할 수 있는지 알기가 어렵습니다.

무인자동차 업계가 기대하고 있는 '더 많은 데이터'는 성공할 가능성이 별로 없습니다. Marcus는 2016년 인터뷰에서 이렇게 말했고 그는 여전히 그렇게 생각합니다. 빅 데이터는 로봇 문제를 해결하는 데 충분하지 않습니다.

집에 로봇을 갖고 싶다면 - 저는 여전히 로봇 Rosie에 대한 환상을 갖고 있습니다. 집안일을 주세요 - 당신 실수를 하게 놔둘 수는 없어요. [강화 학습]은 대규모로 시행착오를 많이 겪습니다. 집에 로봇이 있다면 로봇이 가구에 여러 번 충돌할 수 없습니다. 고양이를 식기 세척기에 한 번만 넣는 것을 원하지 않을 것입니다. 동일한 규모의 데이터를 얻을 수 없습니다. 실제 환경의 로봇에게 필요한 것은 적은 양의 데이터로부터 빠르게 학습하는 것입니다.

Google과 EveryDay Robots는 나중에 이 모든 사실을 알게 되었고 이를 인정하는 재미있는 동영상을 만들기도 했습니다.

그러나 이것이 일부 미디어의 관심을 막지는 못합니다. 이 기사는 연구 상황을 미화하고 핵심 문제가 해결된 것처럼 들리게 하는 과장된 제목으로 작성되었습니다.

마커스가 머스크에게 맞서다: 당신은 여전히 ​​다목적 가정용 로봇을 만들고 싶어 하는군요. 그건 어리석은 일입니다!

Google의 새로운 로봇은 "웹 크롤링"을 통해 명령을 듣는 법을 배웁니다.

이는 2015년 잡지의 두 기사를 생각나게 합니다. 두 기사 모두 낙관적인 제목을 가지고 있지만 프로젝트를 구현한 적이 없습니다.

마커스가 머스크에게 맞서다: 당신은 여전히 ​​다목적 가정용 로봇을 만들고 싶어 하는군요. 그건 어리석은 일입니다!

Facebook은 Siri와 Cortana에 도전하기 위한 Project M의 출시를 발표했습니다

그리고 이 기사——

마커스가 머스크에게 맞서다: 당신은 여전히 ​​다목적 가정용 로봇을 만들고 싶어 하는군요. 그건 어리석은 일입니다!

딥 러닝이 곧 우리에게 초지능 로봇을 선사할 것입니다

나중에의 이야기 우리 모두는 알고 있었습니다 그것: 페이스북 M은 중단되었고, 7년 동안 누구도 어떤 가격에도 초지능 로봇을 살 수 없었습니다.

믿는 사람은 바보

물론 구글의 새로운 로봇은 "웹을 스크래핑"하여 일부 명령을 받아들이는 법을 배웠지만 로봇 기술은 세부 사항에 있습니다.

이상적인 상황에서 로봇이 선택할 수 있는 옵션 수가 제한되어 있는 경우 성능은 아마도 약 75%입니다. 로봇이 선택할 수 있는 작업이 많을수록 성능이 저하될 수 있습니다.

Palm-SayCan 로봇은 6개의 동사만 처리하면 되지만 인간은 수천 개의 동사를 처리합니다. Google의 보고서를 주의 깊게 읽으면 일부 작업에서 시스템의 올바른 실행률이 0%라는 것을 알 수 있습니다.

일반 휴머노이드 홈 로봇의 경우 75%로는 부족합니다. 가정용 로봇이 할아버지를 침대로 들어올려달라는 요청을 받았지만 4번 중 3번만 성공했다고 상상해 보세요.

예, Google에서 멋진 데모를 선보였습니다. 하지만 아직 실제 제품과는 거리가 멀다.

PaLM-SayCan은 로봇과 대화하고 일상적인 집안일을 돕게 할 수 있는 Jetsons와 같은 시스템인 미래의 비전을 제공합니다. 이것은 아름다운 비전입니다.

그러나 Marcus는 다음과 같이 말했습니다. 그러나 머스크를 포함한 우리 중 누군가가 "숨을 참고" 앞으로 몇 년 안에 그러한 시스템이 구현될 것으로 기대한다면 그는 바보입니다.

위 내용은 마커스가 머스크에게 맞서다: 당신은 여전히 ​​다목적 가정용 로봇을 만들고 싶어 하는군요. 그건 어리석은 일입니다!의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:51cto.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
최신 이슈
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿