Sam Altman과의 인터뷰: GPT-4는 별로 놀라지 않았지만 ChatGPT는 나를 놀라게 했습니다.

WBOY
풀어 주다: 2023-04-04 13:05:07
앞으로
1585명이 탐색했습니다.

ChatGPT와 GPT-4는 의심할 여지 없이 2023년 초 인공지능 업계에서 가장 큰 '핫 히트작'입니다.

· 다양한 버전의 GPT에 대해 역사책에서 뭐라고 말할지 모르겠습니다. 하지만 지금까지 본 핵심 노드를 꼽자면 여전히 ChatGPT라고 생각합니다. GPT-4는 별로 놀라지 않았지만 ChatGPT는 나를 조금 기쁘게 했습니다.

· GPT-4 시스템은 어느 정도 인간의 지능을 향상시키고 다양한 시나리오에 적용될 수 있습니다.

· 시스템 자체의 사용 용이성은 때로는 기본 모델의 기능보다 더 중요합니다.

· GPT-4는 아직 의식이 없으며 좋은 프로그래머를 대체할 수 없습니다. 진정으로 의식이 있는 인공지능은 다른 사람에게 자신이 의식이 있다고 말할 수 있어야 하고, 자신의 고통과 기타 감정을 표현하고, 자신의 상황을 이해하고, 자신의 기억을 갖고, 타인과 상호작용할 수 있어야 합니다.

· 인공지능은 인간의 삶의 질을 크게 향상시킬 것입니다. 질병을 치료하고, 부를 창출하고, 자원을 늘리고, 인간을 행복하게 만들 수 있습니다... 인간은 더 이상 일할 필요가 없는 것 같지만, 인간에게는 여전히 일이 필요합니다. 사회적 지위, 열정에 대한 욕구, 창조에 대한 욕구, 자신의 가치를 느끼고 싶은 욕구. 그러므로 인공지능 시대가 도래한 이후 우리가 해야 할 일은 새로운 직업과 라이프 스타일을 찾고, 새로운 기술이 가져오는 엄청난 발전을 수용하는 것입니다.

Sam Altman과의 인터뷰: GPT-4는 별로 놀라지 않았지만 ChatGPT는 나를 놀라게 했습니다.

OpenAI의 창립자 중 한 명인 Sam Altman은 현재 Y Combinator의 사장이자 미국 인공 지능 연구소인 OpenAI의 CEO입니다. 인공지능 연구소 OpenAI를 주도해 챗봇 프로그램인 ChatGPT를 개발했고, 언론에서는 'ChatGPT의 아버지'로 불렸습니다.

(L은 Lex Fridman, S는 Sam Altman)

AI의 역사가 위키피디아에 쓰여있다면 ChatGPT는 여전히 가장 중요한 노드입니다

Q1

L: GPT-4란 무엇인가요? 어떻게 작동하나요? 가장 놀라운 점은 무엇입니까?

S: 지금 돌이켜보면 아직은 매우 초보적인 인공지능 시스템입니다. 작업 효율이 낮고, 사소한 문제도 있고, 만족스럽게 완료되지 않은 부분도 많습니다. 그럼에도 불구하고 이는 미래에 정말로 중요한 기술이 나아갈 길을 제시합니다(프로세스가 수십 년이 걸리더라도).

Q2

L: 50년 후 사람들이 초기 지능형 시스템을 되돌아볼 때 GPT-4는 정말 큰 도약이 될까요? 사람들이 Wikipedia에 인공지능의 역사를 쓸 때 어떤 버전의 GPT에 대해 쓸까요?

S: 이러한 발전 과정은 현재 진행 중이며, 역사적인 순간을 특정하기는 어렵습니다. 다양한 버전의 GPT에 대해 역사책에서 뭐라고 말할지 모르겠습니다. 하지만 지금까지 본 핵심 노드 중 하나를 꼽자면 ChatGPT라고 생각합니다. ChatGPT에서 정말 중요한 것은 기본 모델 자체가 아니라, RLHF(인간 피드백을 기반으로 한 강화 학습) 및 해당 인터페이스를 포함하는 기본 모델을 활용하는 방법입니다.

Q3

L: RLHF는 어떻게 ChatGPT의 놀라운 성능을 구현하나요?

S: 우리는 대량의 텍스트 데이터를 대상으로 이 모델을 훈련했습니다. 그 과정에서 그들은 저수준 표현에 대한 지식을 배웠고 몇 가지 놀라운 일을 할 수 있었습니다. 하지만 훈련을 마친 후 바로 이 기본 모델을 사용한다면 테스트 세트에서는 좋은 성능을 보일 수 있지만 사용하기가 그리 쉽지 않습니다. 이를 위해 우리는 인간의 피드백을 도입하여 RLHF를 구현했습니다. 가장 간단한 RLHF는 모델에 두 가지 버전의 출력을 제공하고 평가자가 어느 버전을 선호할지 판단한 다음 강화 학습을 통해 해당 정보를 모델에 다시 공급하는 것입니다. RLHF는 매우 적은 데이터로 모델을 더욱 실용적으로 만들 수 있습니다. 우리는 이 기술을 사용하여 모델을 인간의 요구에 맞추고 사람들에게 도움이 되는 정확한 답변을 더 쉽게 제공합니다. 기본 모델 기능에 관계없이 시스템 사용 편의성이 중요합니다.

Q4

L: RLHF 기술을 사용하면 더 이상 사람의 감독이 그렇게 많이 필요하지 않다는 것을 어떻게 이해하시나요?

S: 공정하게 말하면 이 부분에 대한 우리의 연구는 사전 훈련된 대형 모델을 만드는 원래의 과학적 연구에 비해 아직 초기 단계이지만 필요한 데이터가 더 적습니다.

L: 인간 안내에 관한 연구는 매우 흥미롭고 중요합니다. 우리는 이러한 유형의 연구를 사용하여 시스템을 더욱 유용하고, 스마트하고, 윤리적이며 인간의 의도와 일치하게 만드는 방법을 이해합니다. 인간의 피드백을 도입하는 과정도 중요합니다.

Q5

L: 사전 학습 데이터 세트의 크기는 얼마나 되나요?

S: 우리는 파트너와 열심히 협력하여 인터넷의 다양한 오픈 소스 데이터베이스에서 이러한 사전 훈련 데이터를 가져와 거대한 데이터 세트를 구축했습니다. 실제로 Reddit, 신문, 기타 미디어 외에도 세상에는 대부분의 사람들이 기대하지 않는 콘텐츠가 많이 있습니다. 데이터를 정리하고 필터링하는 것은 데이터를 수집하는 것보다 더 어렵습니다.

Q6

L: ChatGPT를 구축하려면 모델 아키텍처 규모 설계, 데이터 선택, RLHF와 같은 많은 문제를 해결해야 합니다. 이 부분들이 함께 모이는 것이 그토록 마법적인 이유는 무엇입니까?

S: GPT-4는 실제로 ChatGPT 최종 제품 내부에 출시한 버전인데, 이를 만드는 데 필요한 부품 수를 알기 어렵고 손이 많이 갑니다. 초기 단계마다 새로운 아이디어를 내거나 기존 아이디어를 잘 실행해야 합니다.

L: 전체 훈련 모델을 완료하기 전에 모델이 달성할 성능을 예측하는 등 GPT-4의 일부 기술 단계는 상대적으로 성숙합니다. 적은 양의 훈련을 기반으로 완전히 훈련된 시스템의 특별한 특성을 어떻게 알 수 있습니까? 마치 한 살짜리 아기를 보고 그 아이가 대학 입시에서 몇 점을 받았는지 아는 것과 같습니다.

S: 이 성과는 놀랍습니다. 많은 과학적 요소가 관련되어 있으며 마침내 인간이 기대하는 지능 수준에 도달했습니다. 이 구현 과정은 제가 상상했던 것보다 훨씬 더 과학적입니다. 모든 새로운 과학 분야와 마찬가지로 우리는 데이터에 맞지 않는 새로운 것을 발견하고 이에 대한 더 나은 설명을 제시할 것입니다. 이것이 바로 과학이 발전하는 방식입니다. 우리는 소셜 미디어에 GPT-4에 대한 일부 정보를 게시했지만 여전히 그 마법에 경외감을 느껴야 합니다.

GPT-4는 인간 지능을 체계적으로 강화합니다

Q7

L: 이러한 유형의 언어 모델은 다양한 분야의 자료를 학습하거나 참조할 수 있습니다. OpenAI 내의 연구원과 엔지니어는 언어 모델의 경이로움에 대해 더 깊이 이해하고 있습니까?

S: 모델을 다양한 방법으로 평가할 수 있고, 모델을 훈련한 후 다양한 작업에 대해 테스트할 수 있습니다. 또한 Github에서 모델 테스트 프로세스를 공개했는데, 이는 매우 유용합니다. 중요한 것은 우리가 모델의 실용성을 분석하고, 그 모델이 어떻게 사람들에게 행복과 도움을 줄 수 있는지, 어떻게 더 나은 세상을 만들 수 있는지, 그리고 새로운 제품과 서비스를 창출하기 위해 많은 인력과 재정, 시간을 투자한다는 점이다. 물론 우리는 아직 모델이 작업을 수행하는 모든 내부 프로세스를 완전히 이해하지는 못하지만 이를 위해 계속 노력할 것입니다.

Q8

L: GPT-4는 인터넷에 있는 방대한 양의 정보를 블랙박스 모델의 "비교적 소수" 매개변수로 압축하여 인간의 지혜를 형성합니다. 사실에서 지혜로 나아가려면 어떤 종류의 도약이 필요합니까?

S: 모델을 추론 엔진으로 사용하는 것이 아니라 인간의 지식을 흡수하는 데이터베이스로 사용하고 시스템의 처리 능력이 마술처럼 향상됩니다. 이러한 방식으로 시스템은 실제로 어느 정도의 추론을 달성할 수 있지만, 일부 학자들은 이 진술이 엄격하지 않다고 생각할 수도 있습니다. GPT-4 시스템은 어느 정도 인간 지능을 향상시키고 다양한 시나리오에 적용될 수 있습니다.

L: ChatGPT는 인간과의 지속적인 상호 작용에서 지능을 "보유"하는 것처럼 보입니다. 이러한 대화 방식에서는 잘못된 가정을 인정하고 부적절한 요청을 거부합니다.

GPT-4는 의식이 없으며 좋은 프로그래머를 대체하지 않습니다

Q9

L: 어떤 사람들은 GPT로 프로그래밍을 즐기는 반면, 어떤 사람들은 자신의 직업이 GPT로 대체될까봐 두려워합니다. 이 현상에 대해 어떻게 생각하시나요?

S: 여전히 인간의 창의적 요소가 필요한 몇 가지 중요한 프로그래밍 작업이 있습니다. GPT와 유사한 모델은 일부 프로그래밍 작업을 자동화하지만 여전히 훌륭한 프로그래머를 대체할 수는 없습니다. 어떤 프로그래머는 미래의 불확실성에 대해 불안감을 느끼겠지만, 더 많은 사람들은 그것이 업무 효율성을 향상시킨다고 느낄 것입니다.

20~30년 전, "딥 블루"가 체스 명장 카스파로프를 물리쳤을 때, 어떤 사람들은 체스를 계속할 필요가 없다고 생각했습니다. 그러나 체스는 여전히 전 세계적으로 인기가 있습니다.

인공지능은 인간의 삶의 질을 크게 향상시킬 것입니다. 질병을 치료하고, 부를 창출하고, 자원을 늘리고, 인간을 행복하게 만들 수 있습니다... 인간에게는 일할 필요가 없는 것 같지만 인간에게는 여전히 사회적 지위가 필요합니다. 열정이 필요하고, 창조가 필요하고, 자신의 가치를 느껴야 합니다. 그러므로 인공지능 시대가 도래한 이후 우리가 해야 할 일은 새로운 직업과 라이프 스타일을 찾고, 새로운 기술이 가져오는 엄청난 발전을 수용하는 것입니다.

Q10

L: Eliezer Yudkowsky는 인공 지능이 인간에게 해를 끼칠 수 있다고 경고하고 초인공 지능을 인간의 의도에 "일치"시키는 것이 거의 불가능하다는 예를 제시합니다. 그 사람의 말에 동의하시나요?

S: 가능합니다. 이러한 잠재력에 대해 이야기하지 않으면 이러한 유형의 문제를 해결하기 위한 새로운 기술 개발에 충분한 노력을 기울이지 않을 것입니다. 이러한 문제는 많은 신흥 분야에 존재하며, 이제 사람들은 인공지능의 성능과 안전성에 대해 우려하고 있습니다. Elizer의 기사는 잘 작성되었지만 그의 작업 중 일부를 따라가기가 어렵고 몇 가지 논리적인 문제가 있으며 나는 그의 견해를 전적으로 지지하지는 않습니다.

사람들이 딥 러닝, 대규모 언어 모델의 힘을 믿기 오래 전부터 AI 안전에 대한 많은 작업이 있었고 이 분야에 대한 업데이트가 충분하지 않은 것 같습니다. 이론은 정말 중요하지만, 우리는 기술 궤적의 변화로부터 끊임없이 배워야 하며, 이 주기는 더욱 컴팩트해야 합니다. 저는 지금이 AI 안전을 살펴보고 이러한 새로운 도구와 기술을 인간의 의도와 "조화"하는 방법을 모색할 좋은 시기라고 생각합니다.

Q11

L: 인공지능 기술은 빠른 속도로 발전하고 있습니다. 어떤 사람들은 이제 인공지능의 '도약' 단계에 들어섰다고 말합니다. 누군가가 실제로 일반 인공지능을 구축하게 되면 이러한 변화를 어떻게 알 수 있을까요?

S: GPT-4는 별로 놀라지 않았지만, ChatGPT는 약간 놀랐습니다. GPT-4만큼 인상적이지만 아직 AGI는 아닙니다. AGI의 진정한 정의는 점점 더 중요해지고 있지만 아직은 갈 길이 멀다고 생각합니다.

Q12

L: GPT-4가 의식이 있다고 생각하시나요?

S: 아니요, 아직 의식이 없는 것 같아요.

L: 진정으로 의식이 있는 인공지능은 다른 사람에게 자신이 의식이 있다고 말할 수 있어야 하고, 자신의 고통과 다른 감정을 표현하고, 자신의 상황을 이해하고, 자신의 기억을 갖고, 사람들과 상호작용할 수 있어야 한다고 생각합니다. 그리고 저는 이러한 능력이 기본 지식이 아니라 인터페이스 능력이라고 생각합니다.

S: OpenAI의 수석 과학자인 Ilya Sutskever는 "모델이 의식이 있는지 확인하는 방법"에 대해 저와 논의한 적이 있습니다. 그는 우리가 의식의 주관적인 경험이나 관련 개념을 언급하지 않고 데이터 세트에 대해 모델을 주의 깊게 훈련한다면 이 주관적인 의식의 경험을 모델에 설명하고 모델이 우리가 전달하는 정보를 이해할 수 있는지 확인한다고 믿습니다.

일반 인공지능, 우리는 어디로 왔는가?

Q13

L: Chomsky와 다른 사람들은 일반 인공 지능을 달성하기 위한 "대형 언어 모델"의 능력에 대해 비판적입니다. 그거에 대해서 어떻게 생각해? 대규모 언어 모델이 일반 인공 지능으로 가는 올바른 길인가요?

S: 대규모 언어 모델은 AGI로 가는 길의 한 부분이며, 다른 매우 중요한 부분도 필요하다고 생각합니다.

L: 지능형 에이전트가 세상을 경험하려면 "몸"이 필요하다고 생각하시나요?

S: 조심스럽네요. 하지만 내 생각에는 알려진 과학 지식에 잘 통합될 수 없는 시스템은 '초지능'이라고 부를 수 없습니다. 이는 새로운 기초 과학을 발명하는 것과 같습니다. '초지능'을 달성하기 위해서는 GPT급 패러다임을 계속해서 확장해야 하는데, 아직 갈 길이 멀다.

L: GPT 훈련에 사용되는 데이터를 변경하면 이미 다양하고 거대한 과학적 혁신이 달성될 수 있다고 생각합니다.

Q14

L: 프롬프트 체인이 점점 더 길어짐에 따라 이러한 상호 작용 자체가 인간 사회의 일부가 되고 서로를 기반으로 구축될 것입니다. 이 현상을 어떻게 보시나요?

S: GPT 시스템이 특정 작업을 완료할 수 있다는 사실과 비교할 때 저를 더욱 흥분시키는 것은 인간이 이 도구의 피드백 루프에 참여하고 여러 라운드의 상호 작용 궤적에서 더 많은 것을 배울 수 있다는 것입니다. AI는 인간의 의도와 능력을 확장하고 증폭시켜 사람들이 AI를 사용하는 방식도 형성할 것입니다. 우리는 결코 AGI를 구축하지 못할 수도 있지만 인간을 더 좋게 만드는 것은 그 자체로 큰 승리입니다.

위 내용은 Sam Altman과의 인터뷰: GPT-4는 별로 놀라지 않았지만 ChatGPT는 나를 놀라게 했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:51cto.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿