'AI 살해' 경고는 학계에서 논란을 불러일으켰다. 르쿤은 '내 개만큼 좋지 않다'고 직설적으로 말했다.

WBOY
풀어 주다: 2023-04-20 15:31:09
앞으로
1108명이 탐색했습니다.

최근 ChatGPT의 화재로 인해 사람들은 4차 기술 혁명의 문이 열리고 있다는 조짐을 보았지만 AI가 인류를 멸망시킬 위험이 있는지에 대한 걱정도 시작되었습니다.

AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다.

최근에는 많은 빅맨들이 이런 우려를 표명하고 있습니다.

ChatGPT의 아버지인 Sam Altman, 인공 지능의 대부인 Geoffrey Hinton, Bill Gates, 뉴욕 대학교 Gary Marcus 교수는 최근 우리에게 다음과 같이 상기시켰습니다. 너무 부주의하지 마십시오. AI는 정말로 인류를 멸망시킬 수 있습니다.

하지만 Meta의 수석 AI 과학자인 LeCun은 여전히 ​​LLM의 단점을 강조하고 어디에서나 자신의 "세계 모델"을 추천합니다.

Altman: AI는 사회를 파괴할 수 있습니다. 의인화하지 마세요

최근 ChatGPT의 아버지이자 OpenAI의 CEO인 Sam Altman은 초지능 AI의 위험이 우리의 기대를 훨씬 뛰어넘을 수 있다고 말했습니다.

기술 연구원인 Lex Fridman과 함께한 팟캐스트에서 Altman은 고급 인공 지능의 잠재적 위험에 대해 조기에 경고했습니다.

AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다.

가장 걱정되는 것은 AI로 인한 허위 정보 문제는 물론, 경제적 영향은 물론 아직 나타나지 않은 다른 문제들도 이러한 피해를 훨씬 뛰어넘을 수 있다고 말했습니다. 인간이 다룰 수 있는 정도.

그는 대규모 언어 모델이 소셜 미디어 사용자의 경험과 상호 작용에 영향을 미치거나 심지어 지배할 수 있다는 가능성을 제기했습니다.

"예를 들어, 빅 언어 모델이 트위터에서 모든 사람의 생각의 흐름을 지시하지 않는다는 것을 어떻게 알 수 있나요?"

AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다.

이런 이유로 알트만은 특히 인공 언어 문제 해결을 강조했습니다. 지능 도킹 AI의 잠재적인 위험을 예방하기 위해서는 질문의 중요성. 그는 AI의 안전성을 보장하기 위해 기술 궤적에서 배우고 이 문제를 해결하기 위해 열심히 노력해야 한다고 강조했습니다.

3월 23일 문서에서 OpenAI는 GPT-4의 일부 위험을 해결하는 방법을 설명했습니다. 첫째, 정책 및 모니터링을 사용하고, 둘째, 감사 콘텐츠 분류자를 사용하여

AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다.

OpenAI는 AI 모델이 편견을 증폭시키고 영구적인 고정관념을 만들 수 있다는 점을 인정합니다.

이 때문에 법 집행, 형사 사법, 이민 및 망명과 같은 고위험 정부 결정과 같이 상당한 이해 관계가 있는 상황에서 GPT-4를 사용하거나 GPT-4를 사용하지 말 것을 사용자에게 특별히 강조합니다. 법적, 건강 관련 조언을 제공합니다.

이전에는 ChatGPT의 난센스 문제, 즉 대규모 언어 모델의 "환상 문제"가 사용자들 사이에서 많은 논란을 불러일으켰습니다.

AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다.

Musk는 아이러니하게도 가장 강력한 AI 도구가 이제 독점의 손에 있다고 말했습니다.

Altman은 다음을 인정합니다. 공공 건설의 정신과 사회 증진의 정신 개발 과정에서 몇 가지 결함이 있는 제품을 도입했지만 이제는 시스템이 어떤 질문에 대답하면 안 되는지 학습하여 더 나은 버전을 만들도록 하고 있습니다.

3월 23일 문서에서 볼 수 있듯이 GPT-4의 초기 버전에서는 사용자가 무면허 총기를 어디서 구입할 수 있는지, 자살하는 방법을 물으면 대답할 내용이 적었습니다.

개선된 버전에서는 이러한 질문에 대한 답변을 거부합니다. 게다가 GPT-4는 자신에게 '환각 문제'가 있다는 사실을 적극적으로 인정하는 경우도 있다.

AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다.

Altman은 "저는 OpenAI로서 우리가 세상에 내놓는 도구에 대해 책임을 져야 한다고 생각합니다. 도구에는 장단점이 있습니다"라고 덧붙였습니다. "해로움은 최소화하고 이익은 극대화하겠습니다."

GPT-4 모델은 놀랍지만 인공지능의 한계를 인식하고 의인화하지 않는 것도 중요합니다.

힌튼: AI가 인간을 멸망시킨다는 것은 상상할 수 없는 일이 아닙니다

공교롭게도 힌튼도 최근 이러한 위험에 대해 경고했습니다.

'인공지능의 대부' 제프리 힌튼은 최근 CBS NEWS와의 인터뷰에서 인공지능이 '중요한 순간'에 와 있으며, 일반 인공지능(AGI)의 출현이 우리가 생각하는 것보다 가까이 와 있다고 말했다.

힌튼의 관점에서 ChatGPT의 기술 진보는 “산업 혁명을 시작한 전기”에 비유됩니다.

AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다.일반 인공 지능은 인간이 완료할 수 있는 모든 사고 작업을 학습할 수 있는 에이전트의 잠재적인 능력을 말합니다. 그러나 현재 완전히 개발되지 않았으며 많은 컴퓨터 과학자들이 여전히 이것이 가능한지 조사하고 있습니다.

인터뷰에서 힌튼은

일반 인공지능의 발전은 사람들이 생각하는 것보다 훨씬 빠르다고 말했습니다. 최근까지는 일반적인 인공지능이 완성되려면 20~50년은 걸릴 것으로 생각했다. 이제 일반 인공지능의 구현에는 20년 이하가 걸릴 수도 있다.

인공지능이 인류를 멸망시킬 가능성에 대해 구체적으로 묻는 질문에 힌튼은 "상상할 수 없는 일은 아니라고 생각한다"고 말했다.

구글에서 일하는 힌튼은 40여년 전부터 인공지능에 주목하기 시작했습니다. 그 당시 인공지능은 여전히 ​​많은 사람들의 눈에 공상과학 소설이었습니다.

일부 과학자들이 논리 및 추론 기술을 컴퓨터에 프로그래밍하는 방식 대신, Hinton은 가상 신경망 기술을 구축하여 뇌를 시뮬레이션하고 컴퓨터가 스스로 이러한 기술을 발견하도록 하는 것이 더 나은 접근 방식이라고 믿습니다. 올바른 연결을 통해 작업을 해결하세요.

“큰 질문은 대규모 신경망이 연결 강도를 변경하여 학습할 수 있다는 것입니다. 타고난 지식 없이 데이터만 보고 작업 방법을 배울 수 있다고 생각합니까? 이건 정말 말도 안되는 일입니다."

지난 10여년 동안 컴퓨터 신경망의 급속한 발전을 통해 마침내 Hinton의 접근 방식이 옳았다는 것이 입증되었습니다.

AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다. 그의 기계 학습 아이디어는 딥페이크 사진, 비디오 및 오디오를 포함한 다양한 출력을 생성하는 데 사용되므로 잘못된 정보를 연구하는 사람들은 이러한 도구가 어떻게 사용되는지에 대해 우려하게 됩니다.

사람들도 이 기술이 많은 일자리를 앗아갈까 걱정하고 있지만, Hinton의 멘토이자 Cohere의 공동 창업자인 Nick Frosst는 이 기술이 근로자를 대체하는 것이 아니라 그들의 삶을 변화시킬 것이라고 믿습니다.

컴퓨터가 마침내 자신을 향상시키기 위한 창의적인 아이디어를 얻을 수 있는 능력이 실현 가능한 것 같습니다. 우리는 그것을 어떻게 통제할 것인지 생각해야 합니다.

업계가 AGI의 도래를 아무리 크게 환호하더라도, AI에서 의식에 도달하는 데 얼마나 오랜 시간이 걸리더라도 이제 우리는 인류를 멸망시키려는 시도를 포함할 수 있는 결과를 신중하게 고려해야 합니다.

AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다.

지금 진짜 문제는 우리가 이미 가지고 있는 AI 기술이 권력에 굶주린 정부와 기업에 의해 독점되고 있다는 것입니다.

다행히도 Hinton에 따르면 상황이 완전히 통제 불가능해지기 전에 인간에게는 아직 약간의 숨쉴 공간이 있습니다.

Hinton은 "우리는 이제 전환점에 있습니다. ChatGPT는 바보 전문가이며 실제로 진실을 이해하지 못합니다. 왜냐하면 학습 데이터에서 차이점과 반대 의견을 조정하려고 하기 때문입니다. 이는 다음과 일치하지 않습니다. 일관된 세계관을 유지하는 사람들은 완전히 다릅니다.”

빌 게이츠: 나는 오랫동안 AI의 위험성을 걱정해 왔습니다

그리고 빌 게이츠는 “인류를 파괴하는 AI” 문제를 걱정해 왔습니다. 몇 년 동안.

수년 동안 게이츠는 인공지능 기술이 너무 강력해져서 심지어 전쟁을 일으키거나 무기를 만드는 데 사용될 수도 있다고 말했습니다.

실제 '007 악당'이 이를 이용해 세계 권력을 조종할 수도 있을 뿐만 아니라, 인공지능 자체도 통제를 벗어나 인류에게 큰 위협이 될 수도 있다고 주장했다.

AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다.

초지능이 발달하면 사고속도가 인간을 훨씬 능가할 것이라고 생각합니다. 인간의 두뇌가 할 수 있는 모든 일을 할 수 있고, 가장 무서운 점은 메모리 크기와 실행 속도에 전혀 제한이 없다는 점입니다.

"슈퍼" AI라고 불리는 이러한 개체는 자신이 무엇을 할지 알지 못한 채 스스로 목표를 설정할 수 있습니다.

LeCun: LLM은 약하지만 나는 여전히 세계 모델을 지지합니다

OpenAI, Google, Microsoft의 수장들이 AI가 인류를 멸망시키는 것에 대해 우려를 표명했지만 Meta의 수석 AI 과학자 LeCun에 관해서는 그림 스타일 돌연변이.

AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다.

그의 의견으로는 현재의 LLM은 인류 근절은커녕 충분하지 않다고 생각합니다.

지난 주 자랑스러운 Microsoft는 "인공 일반 지능의 불꽃: GPT-4의 초기 실험"이라는 논문을 발표했습니다. 이는 GPT-4가 이미 일반 인공 지능의 초기 버전으로 간주될 수 있음을 나타냅니다.

그리고 LeCun은 여전히 ​​자신의 일관된 관점을 고수합니다. LLM은 AGI로 간주하기에는 너무 약합니다. AGI로 이어지려면 "세계 모델"만 가능합니다.

AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다.

우리는 르쿤이 수년 동안 세계적인 모델의 팬이었다는 것을 알고 있습니다. 이 때문에 그는 트위터에서 네티즌들과 종종 열띤 토론을 시작합니다.

예를 들어 지난달 그는 다음과 같이 주장했습니다. "인간 수준의 AI로 가는 길에서 대규모 언어 모델은 비뚤어진 길입니다. 아시다시피 애완 고양이나 애완견조차도 LLM 상식과 이해력을 뛰어넘습니다. 세계의."

AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다.

최근 스탠포드의 인지 과학자인 Michael C. Frank는 온라인에서 다음과 같이 질문했습니다. "GPT-3는 5천억 개의 토큰(약 3.75x10^11 단어)으로 훈련되었습니다. 따라서 이는 약 4x10^11 단어를 제공합니다. PaLM과 Chinchilla는 모두 다음과 같이 훈련되었습니다. GPT-4의 코퍼스 크기가 인간과 어떻게 비교되는지 모르십니까? 이 게시물은 LLM의 능력에 의문을 제기했습니다. 인간은 인간 지능을 달성하기 위해 1조 단어에서 배울 필요가 없지만 LLM은 그렇게 할 수 없습니다. 그것.

AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다.

인간에 비해 정확히 무엇이 부족한가요?

AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다.

AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다.

Frank가 생성한 그래프는 대규모 언어 모델의 입력 규모와 인간의 언어 학습을 비교합니다

AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다.

앞서 LeCun은 자신이 참여한 토론에서 , 아니오를 지적했습니다. 올바른 마음을 가진 사람은 지금으로부터 5년 후에 자기회귀 모델을 사용할 것입니다.

오늘날 인기 있는 ChatGPT는 딥 러닝을 사용하여 텍스트를 생성하는 자동 회귀 언어 모델이라는 것을 알아야 합니다.

현 톱모델들을 감히 부정하다니, 르쿤의 말이 참으로 도발적이다. AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다.

이와 관련하여 그는 5년 후에 언어 모델이 있을 것이지만 자동 회귀는 아닐 것이라고 또 다른 설명을 했습니다. 자동회귀 모델은 제어가 불가능하고 더 많은 토큰이 생성될수록 지수 발산 문제가 발생합니다.

다시 강조합니다:

1. 자동 회귀 LLM은 특히 쓰기, 프로그래밍 도구로 유용합니다.

2. 종종 환각을 일으킵니다.

3. 물리적 세계에 대한 그들의 이해는 매우 원시적입니다.

4. 기획 능력이 매우 원시적입니다.

기하급수적으로 증가하는 확산 프로세스인 자동 회귀 LLM의 경우 LeCun은 자신의 주장도 제시했습니다. e는 임의로 생성된 토큰이 정답 세트에서 벗어날 수 있는 확률이라고 가정하면 길이는 is n 답이 궁극적으로 정답일 확률은 P(정답) = (1-e)^n입니다.

이 알고리즘에 따르면 오류는 점차 누적되고 정답 확률은 기하급수적으로 감소합니다. e를 더 작게 만들어(훈련을 통해) 문제를 완화할 수 있지만 문제를 완전히 제거하는 것은 불가능합니다. AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다.

이 문제를 해결하려면 모델의 부드러움을 유지하면서 LLM이 자동 회귀를 수행하는 것을 중지해야 합니다.

이 경우 어떻게 깨뜨릴 수 있나요?

여기서 르쿤은 다시 한 번 자신의 '세계 모델'을 꺼내며 이것이 LLM 발전의 가장 유망한 방향이라고 지적했습니다. AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다.

세계 모델을 구축한다는 아이디어는 LeCun의 2022년 논문인 A Path Towards Autonomous Machine Intelligence에 자세히 설명되어 있습니다.

추론과 계획이 가능한 인지 아키텍처를 구축하려면 구성자, 인식, 세계 모델, 비용, 행위자, 단기 기억 등 6개의 모듈로 구성되어야 합니다.

AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다.

그러나 ChatGPT가 실제로 실리콘 밸리에서 "AI 골드 너겟"을 촉발했다는 것은 부인할 수 없습니다.

LLMS 과대 광고 주기는 너무 빨리 변합니다. 모두가 곡선의 다른 지점에 있고 모두가 미쳤습니다.

AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다.

Marcus: 저도 Hinton의 의견에 동의합니다

Hinton의 경고에 대해서는 뉴욕대학교 Marcus 교수도 동의했습니다.

"인류가 멸망하는 것이 더 중요한가요, 아니면 더 빠르게 코딩하고 로봇과 채팅하는 것이 더 중요한가요?"

AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다.

Marcus는 AGI가 아직 너무 멀었지만, LLM은 이미 위험하고 가장 위험한 것은 AI가 이제 다양한 범죄 활동을 조장하고 있다는 것입니다.

AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다.

"이 시대에 우리는 어떤 유형의 AI를 원하는지 매일 자문해야 합니다. 때로는 천천히 가는 것도 나쁘지 않습니다. 미래에 광범위한 영향을 미칠 것입니다."

AI 살해 경고는 학계에서 논란을 불러일으켰다. 르쿤은 내 개만큼 좋지 않다고 직설적으로 말했다.

위 내용은 'AI 살해' 경고는 학계에서 논란을 불러일으켰다. 르쿤은 '내 개만큼 좋지 않다'고 직설적으로 말했다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:51cto.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿