AGI와 ChatGPT에 관해 Stuart Russell과 Zhu Songchun은 그렇게 생각합니다.

PHPz
풀어 주다: 2023-04-13 10:40:07
앞으로
1514명이 탐색했습니다.

AGI와 ChatGPT에 관해 Stuart Russell과 Zhu Songchun은 그렇게 생각합니다.

Mark Nitzberg: 오늘 우리는 인공 지능 분야의 최고 전문가 두 명을 이번 SafeAI 세미나에 초대하게 된 것을 영광으로 생각합니다.

그들은: 스튜어트 러셀(Stuart Russell), 버클리 캘리포니아 대학의 컴퓨터 과학자, 클래스 호환 인공 지능 센터(CHAI) 소장, 인공 지능 연구소(BAIR) 운영 위원회 회원입니다. 세계경제포럼 인공지능 및 로봇공학 위원회 부의장, AAAS 펠로우, AAAI 펠로우.

Zhu Songchun, 베이징 일반 인공 지능 연구소 원장, 북경 대학교 석좌 교수, 북경 대학교 지능 및 인공 지능 연구소 학장, 칭화 대학교 기초 과학 석좌 교수.

Mark Nitzberg: "일반 인공 지능"이란 무엇입니까? 언제 생성했는지 확인할 수 있는 잘 정의된 테스트가 있습니까?

스튜어트 러셀: 일반 인공 지능은 인간이 할 수 있는 모든 작업을 완료할 수 있다고 설명되었지만 이는 일반적인 진술일 뿐입니다. 모든 지식을 요약하거나 복잡한 입자 상호작용을 시뮬레이션하는 등 인간이 할 수 없는 일을 일반 인공지능이 할 수 있기를 바랍니다.

일반 인공지능을 연구하기 위해 우리는 특정 작업의 벤치마크에서 작업 환경의 일반적인 속성으로 전환할 수 있습니다(예: 부분 관찰 가능성, 장기, 예측 불가능성 등). 이러한 속성에 대한 완전한 솔루션을 제공할 수 있는 능력이 있다면 스스로에게 문의하십시오. 우리에게 이런 능력이 있다면 일반 인공지능은 인간이 완료할 수 있는 작업을 자동으로 완료할 수 있어야 하고, 여전히 더 많은 작업을 완료할 수 있는 능력을 가지고 있어야 합니다. 일반성을 테스트한다고 주장하는 테스트(예: BigBench)가 있지만 "중력파 탐지기를 발명할 수 있습니까?"와 같은 인공 지능 시스템이 접근할 수 없는 작업은 다루지 않습니다.

주송춘: 몇 년 전만 해도 많은 사람들은 일반 인공지능을 달성하는 것이 도달할 수 없는 목표라고 생각했지만, 최근 ChatGPT의 인기로 인해 모든 사람이 기대에 부풀게 되었고 이제 일반 인공지능도 달성할 수 있게 된 것 같습니다. 나는 중국의 새로운 연구개발 기관인 베이징 일반 인공 지능 연구소(BIGAI)를 설립할 때 전문 인공 지능과 구별하기 위해 기관 이름의 일부로 AGI를 사용하기로 특별히 결정했습니다. Tongyuan의 "Tong"이라는 단어는 "A", "G", "I" 세 글자로 구성됩니다. 통(tong)이라는 단어의 발음에 따라 일반 인공지능 통AI(TongAI)라고도 부릅니다.

일반 인공지능은 인공지능 연구의 본래 의도이자 궁극적인 목표입니다. 목표는 자율적인 인식, 인지, 의사결정, 학습, 실행 및 사회적 협업 능력을 갖추고 인간의 감정, 윤리 및 도덕적 개념에 부합하는 종합 지능 에이전트를 구현하는 것입니다. 그러나 지난 20~30년 동안 사람들은 얼굴 인식, 대상 탐지, 텍스트 번역 등의 작업을 하나씩 해결하기 위해 엄청난 양의 기밀 데이터를 사용했습니다. 보편적이라고 생각되나요?

저는 일반 인공지능을 달성하기 위해서는 세 가지 핵심 요구 사항이 있다고 믿습니다. 1) 일반 에이전트는 복잡하고 역동적인 물리적, 사회적 환경에서 미리 정의되지 않은 작업을 포함하여 무제한 작업을 처리할 수 있습니다. 2) 일반 에이전트는 자율적이어야 합니다. 3) 일반 에이전트는 목표가 가치에 의해 정의되기 때문에 가치 시스템을 가져야 합니다. 지능형 시스템은 가치 시스템을 갖춘 인지 아키텍처에 의해 구동됩니다.

Mark Nitzberg: LLM(대형 언어 모델) 및 기타 기본 유형이 일반 인공 지능을 달성할 수 있다고 생각하시나요? 스탠포드 대학교 교수가 작성한 최근 논문에서는 언어 모델이 9세 어린이의 정신 상태와 비슷한 정신 상태를 가질 수 있다고 주장합니다. 이 진술에 대해 어떻게 생각하시나요?

Zhu Songchun: 대규모 언어 모델이 놀라운 발전을 이루었지만 위의 세 가지 표준을 비교해 보면 대규모 언어 모델이 아직 일반 인공 지능의 요구 사항을 충족하지 못한다는 것을 알 수 있습니다. .

1) 대규모 언어 모델은 작업 처리 능력이 제한되어 있으며 텍스트 영역의 작업만 처리할 수 있으며 물리적, 사회적 환경과 상호 작용할 수 없습니다. 이는 ChatGPT와 같은 모델이 물리적 공간을 경험할 수 있는 신체가 없기 때문에 언어의 의미를 진정으로 "이해"할 수 없음을 의미합니다. 중국 철학자들은 오랫동안 "지식과 행동의 통일"이라는 개념을 인식해 왔습니다. 즉, 세상에 대한 사람들의 "지식"은 "행동"에 기초합니다. 이는 또한 일반 지능이 실제로 물리적 장면과 인간 사회에 들어갈 수 있는지 여부를 결정하는 열쇠이기도 합니다. 인공 에이전트가 실제 물리적 세계와 인간 사회에 배치되어야만 현실 세계의 사물 간의 물리적 관계와 다양한 지능형 에이전트 간의 사회적 관계를 진정으로 이해하고 학습하여 "지식과 행동의 통일"을 달성할 수 있습니다.

2) 대규모 언어 모델은 자율적이지 않습니다. 마치 훈련된 발화만 모방할 수 있는 "거대한 앵무새"처럼 인간이 각 작업을 구체적으로 정의해야 합니다. 진정한 자율 지능은 "까마귀 지능"과 유사해야 합니다. 까마귀는 오늘날의 AI보다 더 지능적인 작업을 자율적으로 완료할 수 있습니다.

3) ChatGPT는 인간의 가치가 암시적으로 포함된 텍스트를 포함하여 다양한 텍스트 데이터 말뭉치에 대해 대규모로 훈련되었지만 인간의 가치를 이해하거나 인간의 가치와 일치하는 능력이 없습니다. 소위 도덕적 나침반이 부족합니다.

언어 모델이 9세 어린이와 동등한 정신 상태를 가질 수 있다는 논문의 발견과 관련하여, GPT-3.5가 답변할 수 있는 일부 실험 테스트를 통해 발견된 논문은 다소 과장된 것 같습니다. 문제의 93%를 정확하게 맞혔으며, 9세 어린이의 수준과 동일합니다. 그러나 일부 규칙 기반 기계가 유사한 테스트를 통과할 수 있다면 이러한 기계에 마음 이론이 있다고 말할 수 있습니까? GPT가 이 테스트를 통과하더라도 이는 마음 이론 테스트를 통과하는 능력을 반영할 뿐 마음 이론이 있다는 의미는 아닙니다. 동시에 이러한 전통적 방식을 사용하는 실천에 대해서도 반성해야 합니다. 기계가 마음 이론을 개발했는지 확인하는 테스트 작업이 엄격하고 합법적입니까? 기계가 마음 이론 없이 이러한 작업을 완료할 수 있는 이유는 무엇입니까?

스튜어트 러셀: 1948년 논문에서 Turing은 거대한 조회 테이블에서 지능적인 동작을 생성하는 문제를 제기했습니다. 2000개의 단어를 생성하려는 경우 변환기를 활용하는 대규모 언어 모델의 창 크기와 마찬가지로 가능한 모든 시퀀스를 저장하기 위해 약 10^10000 항목이 있는 테이블이 필요하기 때문에 이는 실용적이지 않습니다. 이러한 시스템은 매우 지능적인 것처럼 보일 수 있지만 실제로는 정신 상태와 추론 프로세스(고전 인공 지능 시스템의 기본 의미)가 부족합니다.

사실 ChatGPT가 9세 어린이와 유사한 정신 상태를 가지고 있다는 증거는 없습니다. LLM에는 복잡한 일반화를 학습하고 표현하는 능력이 부족하기 때문에 9세 어린이가 처리할 수 있는 것보다 훨씬 많은 양의 텍스트 데이터가 필요하며 여전히 오류가 발생합니다. 이는 이전 마스터 레벨 게임(예: d4, c6, Nc3 등)에서 유사한 동작의 시퀀스를 인식한 후 해당 시퀀스의 다음 동작을 출력하는 체스 게임 프로그램과 같습니다. 대부분의 경우 체스의 대가라고 생각하지만 보드나 기물을 모르거나 상대를 체크메이트하는 것이 목표라는 점을 모르기 때문에 때때로 불법적인 움직임을 보일 수도 있습니다.

ChatGPT는 어느 분야든 어느 정도 그렇습니다. 우리는 그것이 진정으로 이해하는 영역이 있는지 확신하지 못합니다. 일부 오류는 수정될 수 있지만 이는 로그 함수 값 테이블의 오류를 수정하는 것과 같습니다. "로그"가 "17페이지의 표에 있는 값"이라는 의미로만 이해한다면 오타를 수정해도 문제가 해결되지 않습니다. 이 표에는 아직 "로그"의 의미와 정의가 포함되어 있지 않으므로 전혀 유추할 수 없습니다. 더 많은 데이터로 테이블 크기를 확장한다고 해서 문제의 근본 원인이 해결되는 것은 아닙니다.

마크 니츠버그: 스튜어트, 당신은 일반 인공지능이 원자력과 같다고 생각하면서 우리에게 일반 인공지능이 야기하는 실존적 위험에 대해 처음으로 경고한 사람 중 한 명이었습니다. 왜 그렇게 생각하시나요? 이를 어떻게 방지할 수 있나요? 마쓰즈미씨, 인공지능으로 인해 가장 우려되는 위험은 무엇입니까?

스튜어트 러셀: 사실 튜링은 경고를 가장 먼저 한 사람 중 하나였습니다. 그는 1951년에 “기계가 일단 생각하기 시작하면 곧 우리를 능가할 것이다. 그러므로 어느 시점에서는 기계가 지배당할 수 있을 것이라고 기대해야 한다”고 말했다. 특히 이러한 에이전트가 부정확하거나 불완전한 목표를 갖고 있는 경우 권력을 유지하기가 어렵습니다.

지금 이러한 위험을 고려하는 것이 불안하다고 생각하는 사람이 있다면 직접 물어볼 수 있습니다. 인간보다 더 강력한 지능 앞에서 어떻게 권력을 영원히 유지할 수 있습니까? 나는 그들의 대답을 듣고 싶습니다. 더욱이 인공지능 분야에서는 여전히 아무런 증거도 제시하지 않은 채 AGI의 실현 가능성을 부정하고 문제를 회피하려는 사람들이 있다.

EU 인공지능법은 인간이 정의한 목표를 달성할 수 있는 표준 인공지능 시스템을 정의합니다. 나는 이 기준이 OECD에서 나왔다고 들었고, OECD 사람들은 내 교과서의 이전 버전에서 나왔다고 말했습니다. 이제 저는 표준 AI 시스템에 대한 이러한 정의에 근본적으로 결함이 있다고 생각합니다. 왜냐하면 우리가 현실 세계에서 AI가 원하는 것이 무엇인지, 우리가 원하는 미래가 어떤 것인지 에 대해 완전히 정확할 수 없기 때문입니다. 잘못된 목표를 추구하는 AI 시스템은 우리가 원하지 않는 미래를 가져올 것입니다.

소셜 미디어의 추천 시스템이 예를 제공합니다. 추천 시스템은 클릭률이나 참여를 최대화하려고 노력하며 인간을 조작하여 인간을 더 예측 가능하고 확실히 더 극단적인 버전으로 전환함으로써 이를 수행하는 방법을 배웠습니다. AI를 "더 좋게" 만들면 인간의 결과는 더 나빠질 뿐입니다.

대신 1) 인간의 이익만을 목표로 하고 2) 그것이 무엇을 의미하는지 전혀 모른다는 점을 분명히 하는 AI 시스템을 구축해야 합니다. AI는 인간 이익의 진정한 의미를 이해하지 못하기 때문에 우리가 이에 대한 통제력을 유지할 수 있도록 인간 선호도에 대해 불확실한 상태를 유지해야 합니다 . 기계는 인간의 선호도가 확실하지 않을 때 종료될 수 있어야 합니다. AI의 목표에 대해 더 이상 불확실성이 없어지면 실수를 저지르는 사람은 인간이고 기계는 더 이상 끌 수 없습니다.

주송춘:일반 인공지능이 현실화된다면 장기적으로 인류 존재에 위협이 될 수도 있습니다. 지능 진화의 오랜 역사를 되돌아보면 일반 인공지능의 탄생은 거의 불가피하다는 사실을 유추할 수 있다.

현대 과학 연구에 따르면 지구상의 생명체는 무기물에서 유기물, 단세포, 다세포 유기체, 식물, 동물, 그리고 마지막으로 인간과 같은 지능을 갖춘 생물로 끊임없이 진화하고 있습니다. 이는 '물리적'에서 '지능적'으로 지속적인 진화 과정이 있음을 보여줍니다. 무생물과 생명체의 경계는 어디인가? 이 질문은 미래 사회에서 우리와 공존할 '지능형 생명체'를 어떻게 이해하고 정의할 것인지에 대한 질문이기 때문에 매우 중요합니다. 이 대답은 무생물에서 단순한 생명체에 이르기까지 '생명의 정도'와 관련이 있다고 생각합니다. 복잡한 지능 에이전트. "생명의 정도"는 점점 더 커지고 "지능"은 점점 더 복잡해지고 있습니다. 이것은 인간이 이러한 진화의 끝이 될 것이라고 생각할 이유가 없습니다. 스펙트럼은 또한 미래에는 일반 지능이 인간을 능가하는 것이 가능함을 나타냅니다.

미래의 일반 인공지능이 인류에게 위협을 가져오는 것을 막기 위해 일반지능의 능력 공간과 가치 공간을 점진적으로 개방할 수 있습니다. 로봇을 마주할 때처럼 먼저 '우리'에 가두었다가 서서히 권한을 열었습니다. 이제는 특정 도로 구간에 무인 차량이 등장했습니다. 먼저 인공지능 시스템의 적용 가능한 경우와 행동 공간을 특정 영역으로 제한할 수 있습니다. 기계에 대한 신뢰가 높아지고 AI 시스템이 안전하고 제어 가능하다는 것을 확인한 후 점차적으로 더 많은 공간을 제공할 것입니다. 또한 우리는 알고리즘 의사결정 과정의 투명성을 증진해야 합니다. 일반 인공지능의 인지 아키텍처를 명시적으로 표현할 수 있어 그것이 어떻게 작동하는지 알 수 있다면 이를 더 잘 제어할 수 있습니다.

마크 니츠버그: 스튜어트, 당신의 연구에서 어떤 방향이 일치 연구라고 볼 수 있나요?

Stuart Russell: CHAI의 핵심 목표는 위의 비전을 달성하는 것입니다. 즉, 목표 불확실성을 처리할 수 있는 인공 지능 시스템을 구축하는 것입니다. 모방 학습을 제외한 기존 방법은 모두 인공 지능 시스템에 대해 미리 알려진 고정된 목표를 가정하므로 이러한 방법을 다시 설계해야 할 수도 있습니다.

간단히 말하면, 우리는 여러 사람과 여러 기계가 상호 작용하는 시스템을 시뮬레이션하려고 합니다. 사람마다 선호하는 것이 있지만 기계는 많은 사람에게 영향을 미칠 수 있으므로 기계의 효용함수를 사람의 효용함수의 합으로 정의합니다. 그러나 우리는 세 가지 문제에 직면합니다.

첫 번째 질문은 기계가 대부분의 사람들의 요구를 이해하고 충족할 수 있도록 다양한 사람들의 선호도를 집계하는 방법입니다. 모든 사람의 가중치가 동일하고 형태에 대한 감각이 좋기 때문에 덧셈이 좋은 집계 함수일 수 있다는 제안이 있었으며, 이는 경제학자 John Harsanyi 등의 연구에서 잘 입증되었습니다. 하지만 다른 관점도 있어야 합니다.

두 번째 질문은 선호 구조의 풍부함, 즉 우주의 가능한 모든 미래에 대한 분포 순서를 어떻게 특성화할 것인가입니다. 이것은 인간이나 인간 모두에서 명확하지 않은 매우 복잡한 데이터 구조입니다. 두뇌 또는 기계 표현. 따라서 선호도를 효율적으로 정렬, 분해, 결합할 수 있는 방법이 필요합니다.

현재 일부 복잡한 효용 함수를 표현하기 위해 소위 "CP 네트"를 사용하려는 일부 AI 연구 시도가 있습니다. CP Nets가 다중 속성 효용 함수를 분해하는 방식은 복잡한 다변수에 대한 베이지안 네트와 동일합니다. 확률 모델도 거의 같은 방식으로 분석됩니다. 그러나 인공지능은 실제로 인간의 행복 내용을 연구하지 않습니다. 인간을 돕는다는 이 분야의 주장을 생각하면 놀라운 일입니다. 실제로 경제, 사회학, 개발 등과 같은 분야에서 인간 복지를 연구하는 학계에서는 건강, 안전, 주택, 식품 등과 같은 요소 목록을 작성하는 경향이 있습니다. 이 목록은 주로 다음의 우선순위를 전달하기 위해 고안되었습니다. 나머지 인류와 공공 정책은 "능력 있는 사람이 되고 싶다"와 같은 "명백한" 암묵적인 선호를 많이 포착하지 못할 수도 있습니다. 내가 아는 바로는, 이 연구자들은 인간 행동을 예측하기 위한 과학적 이론을 아직 개발하지 않았지만, AI의 경우 문제를 일으킬 수 있는 중요한 것을 놓쳤을 경우, 명시되지 않은 모든 선호도를 포함하여 완전한 인간 선호도 구조가 필요합니다.

세 번째 질문은 인간 행동에서 선호도를 추론하고 인간 선호도의 가소성을 특성화하는 방법입니다. 시간이 지나면서 선호도가 변한다면 AI는 누구를 위해 일하고 있나요? 오늘은 당신인가요 아니면 내일인가요? 우리는 인공지능이 쉽게 달성할 수 있는 세계 상태에 맞춰 우리의 선호도를 변경하여 세계가 다양성을 잃게 되는 것을 원하지 않습니다.

이러한 기본 연구 질문 외에도 우리는 모든 인공 지능 기술(검색 알고리즘, 계획 알고리즘, 동적 프로그래밍 알고리즘, 강화 학습 등)을 더 넓은 기반으로 재구성하는 방법에 대해서도 생각하고 있습니다. 새로운 시스템의 주요 속성은 시스템이 실행되는 동안 인간에서 기계로 선호 정보가 흐르는 것입니다. 이것은 현실 세계에서는 매우 정상적인 일입니다. 예를 들어, 우리는 택시 운전사에게 "공항까지 데려다 주세요"라고 요청합니다. 이것은 실제로 우리의 실제 목표보다 더 넓은 목표입니다. 우리가 1마일 떨어져 있었을 때 운전기사는 우리에게 어느 터미널이 필요한지 물었습니다. 우리가 가까이 다가가자 운전사는 어느 항공사가 우리를 올바른 게이트로 데려다 줄지 물을 수도 있습니다. (그러나 문에서 정확히 몇 밀리미터인지는 알 수 없습니다!) 따라서 특정 클래스의 알고리즘에 가장 적합한 불확실성 및 선호도 전달의 형태를 정의해야 합니다. 예를 들어 검색 알고리즘은 비용 함수를 사용하므로 기계는 다음을 수행할 수 있습니다. 해당 기능에 대한 범위를 가정하고 두 가지 동작 시퀀스 중 어느 것이 더 적절한지 인간에게 질문하여 범위를 개선합니다.

일반적으로 기계는 항상 인간의 선호에 대해 많은 불확실성을 가지고 있습니다. 이러한 이유로 이 분야에서 자주 사용되는 "정렬"이라는 용어는 오해의 소지가 있을 수 있다고 생각합니다. 인간의 선호에 따라 무엇을 할지 선택하라." 실제로는 그렇지 않을 수도 있습니다.

Mark Nitzberg: 송춘님, 지금까지 진행하신 가치정렬 연구에 대해 소개해 주세요.

Zhu Songchun: 가치 정렬에 관해 이야기할 때 먼저 '가치'에 대해 논의해야 합니다. 현재의 인공지능 연구는 데이터 중심에서 가치 중심으로 바뀌어야 한다고 생각합니다. 사람들의 다양한 지능적 행동은 가치에 의해 주도되며 사람들은 가치를 빠르게 이해하고 배울 수 있습니다. 예를 들어 의자에 앉았을 때 의자와 신체의 접촉에 대한 힘 분석을 통해 평형 상태를 관찰할 수 있으며 이를 통해 암묵적으로 "편안함"의 가치를 유추할 수 있습니다. 이 가치는 말로는 정확하게 표현되지 않을 수도 있지만, 의자와의 상호작용을 통해 표현할 수 있습니다. 옷을 접는 방식을 통해서도 사람들의 미적 가치를 알 수 있습니다.

또한, 가치 체계는 통일된 표현 집합을 갖고 있으며, 현재의 선호도가 풍부한 것은 서로 다른 조건에서 통일된 가치를 매핑했기 때문이라고 생각합니다. 우리의 가치는 상황에 따라 달라집니다. 예를 들어, 버스가 정류장에 도착하는 경우 버스를 더 오래 탈 수 있도록 하고 싶을 수도 있습니다. , 문이 즉시 닫히기를 원할 수도 있습니다. AI 시스템은 선호도 변화에 신속하게 적응할 수 있어야 하므로 AI에는 가치 중심의 인지 아키텍처가 필수적입니다.

인간의 인지 수준에서 일반 지능을 달성하기 위해 우리는 BIGAI 연구에 가치 정렬 요소를 포함하고 4가지 정렬을 포함하는 인간-컴퓨터 상호 작용 시스템을 구축했습니다. 첫 번째 정렬은 세상에 대한 공통의 이해를 포함한 공유된 표현입니다. 두 번째 정렬은 물리학 상식, 인과관계 사슬, 논리 등 핵심 지식을 공유하는 것입니다. 세 번째 정렬은 공유된 사회적 규범으로, AI가 인간 사회의 규범을 따르고 적절한 행동을 유지해야 한다고 규정합니다. 네 번째 정렬은 AI가 인간 윤리 원칙과 정렬되어야 하는 공유 가치입니다.

실시간 양방향 인간-로봇 가치 정렬 연구를 발표했습니다. 본 연구에서는 설명 가능한 인공지능 시스템을 제안한다. 이 시스템에서는 한 무리의 로봇이 사용자와의 실시간 상호작용과 사용자 피드백을 통해 사용자의 가치 목표를 추론함과 동시에 사용자가 가치를 이해할 수 있도록 '설명'을 통해 자신의 의사결정 과정을 사용자에게 전달합니다. 로봇 판단의 기초. 또한, 시스템은 사용자의 내재가치 선호도를 추론하고 최선의 설명 방법을 예측함으로써 사용자가 이해하기 쉬운 설명을 생성합니다.

Mark Nitzberg: AI 시스템의 어떤 특성이 일반 인공 지능으로 이어지지 않을 것이라고 결론을 내리게 합니까?

Zhu Songchun: AI가 일반 인공지능인지 어떻게 판단하나요? 중요한 요소 중 하나는 우리가 AI를 얼마나 신뢰하는가입니다. 신뢰에는 두 가지 수준이 있습니다. 하나는 AI의 능력에 대한 신뢰이고, 다른 하나는 AI가 사람들의 감정과 가치에 유익한지에 대한 신뢰입니다. 예를 들어 오늘날의 AI 시스템은 이미지를 매우 잘 인식할 수 있지만 신뢰를 구축하려면 설명 가능하고 이해할 수 있어야 합니다. 일부 기술은 매우 강력하지만 설명할 수 없으면 신뢰할 수 없는 것으로 간주됩니다. 이는 실수로 인한 비용이 심각한 무기나 항공 시스템과 같은 분야에서 특히 중요합니다. 이 경우 신뢰의 감정적 측면이 더 중요하며, AI는 인간의 신뢰를 받기 위해 자신이 어떻게 결정을 내리는지 설명해야 합니다. 그러므로 인간과 기계 사이의 반복과 소통, 협업을 통해 상호 이해를 높이고, 합의를 이루고 '정당한 신뢰'를 창출해야 합니다.

더 생각해보면, 일반 인공지능이 무엇인지 묻는 것은 본질적으로 "인간"이 무엇인지 묻는 것과 같습니다. 모두가 일반 대리인입니다. 일반적인 인공지능을 설명하기 위해 UV 이중 시스템 기반 이론을 제안합니다. U 시스템은 에이전트가 습득한 객관적인 물리적 법칙과 사회적 규범을 포함하는 잠재적 에너지 기능이고, V 시스템은 Maslow의 욕구 계층 이론과 발달 심리학 연구를 참조하여 에이전트의 가치 기능 집합을 포함합니다. 가치는 크게 분류됩니다. UV 듀얼 시스템을 기반으로 일반 인공지능의 발전 수준을 평가하고 L1부터 L5까지 서로 다른 표준을 형성하려고 노력하고 있다. 이 테스트 시스템은 올해 출시될 예정이다.

스튜어트 러셀: 현재 AI 시스템은 회로가 보편성을 잘 포착하지 못하기 때문에 보편성이 없습니다. 우리는 이미 대규모 언어 모델이 산술의 기본 규칙을 배우는 데 어려움을 겪는 방식을 통해 이를 확인했습니다. 우리의 최신 연구에 따르면, 수백만 건의 사례에도 불구하고 이전에 인간을 이겼던 인공 지능 바둑 시스템은 "큰 용"과 "생사"의 개념을 올바르게 이해할 수 없다는 사실이 밝혀졌습니다. Go 프로그램을 이겼습니다.

인공지능이 인류에게 유익할 것이라고 확신한다면 인공지능이 어떻게 작동하는지 알아야 합니다. 우리는 명시적 논리와 확률 이론이 뒷받침되는 의미론적으로 구성 가능한 기반 위에 인공 지능 시스템을 구축하여 향후 일반 인공 지능을 달성하기 위한 좋은 기반이 되어야 합니다. 그러한 시스템을 만드는 한 가지 가능한 방법은 확률론적 프로그래밍입니다. 이는 CHAI가 최근 탐구하고 있는 것입니다. 마츠즈미가 BIGAI와 비슷한 방향을 모색하는 모습을 보고 용기를 얻었습니다.

위 내용은 AGI와 ChatGPT에 관해 Stuart Russell과 Zhu Songchun은 그렇게 생각합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:51cto.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
최신 이슈
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿