GPT-4는 ChatGPT에 비해 어떤 점이 개선되었나요? Jen-Hsun Huang은 OpenAI 공동 창립자와 '노변 담화'를 가졌습니다.
ChatGPT와 GPT-4의 가장 중요한 차이점은 GPT-4를 기반으로 구축하면 다음 문자를 더 높은 정확도로 예측한다는 것입니다. 신경망이 텍스트의 다음 단어를 더 잘 예측할수록 텍스트를 더 잘 이해할 수 있습니다.
제작: 빅데이터 다이제스트
저자: Caleb
엔비디아가 OpenAI를 만나면 어떤 불꽃을 일으키게 될까요?
방금 NVIDIA 창립자이자 CEO인 Jensen Huang은 GTC 노변담화에서 OpenAI 공동 창립자인 Ilya Sutskever와 심도 있는 대화를 나눴습니다.
동영상 링크:
https://www.nvidia.cn/gtc-global/session-catalog/?tab.catalogallsessinotallow=16566177511100015Kus#/session/1669748941314001t6Nv
이틀 전, OpenAI 현재까지 가장 강력한 인공지능 모델인 GPT-4를 출시했습니다. OpenAI는 공식 웹사이트에서 GPT-4를 "OpenAI의 가장 진보된 시스템"이라고 부르며 "더 안전하고 유용한 응답을 생성할 수 있습니다"라고 설명합니다.
Sutskever는 또한 대화 중에 GPT-4가 ChatGPT에 비해 여러 측면에서 "상당한 개선"을 나타냈다고 말하면서 새 모델이 이미지와 텍스트를 읽을 수 있다는 점을 지적했습니다. 그는 "향후 버전에서는 [사용자]가 질문과 문의에 대한 응답으로 차트를 얻을 수도 있다"고 말했습니다.
ChatGPT 및 GPT-4가 전 세계적으로 인기를 끌면서 이것이 ChatGPT 관련 주제를 포함한 GPT-4 및 이전 버전 외에도 Huang Renxun 및 Sutskever도 이 대화의 초점이 되었다는 것은 의심의 여지가 없습니다. 심층 신경망의 기능과 한계, 내부 작동 방식에 대해 이야기하고 향후 AI 발전에 대한 예측도 이야기했습니다.
다음은 Digest Fungus와의 대화로 들어가 보겠습니다~
아무도 네트워크 규모와 컴퓨팅 규모에 관심이 없던 시절부터 시작하세요
아마도 많은 사람들이 Sutskever라는 이름을 들으면 가장 먼저 떠오르는 것은 OpenAI와 관련 AI 제품일 것입니다. 하지만 Sutskever의 이력서는 Google Brain 연구 과학자이자 Seq2Seq 모델의 공동 개발자인 Andrew Ng의 박사후 과정까지 추적할 수 있다는 점을 알아야 합니다.
딥러닝은 처음부터 Sutskever에 묶여 있었다고 할 수 있습니다.
수츠케버는 딥러닝에 대한 자신의 이해에 대해 이야기하면서 이제부터 딥러닝이 실제로 세상을 변화시켰다고 말했습니다. 그러나 그의 개인적인 출발점은 AI의 엄청난 영향력 잠재력에 대한 직관, 의식과 인간 경험에 대한 강한 관심, 그리고 AI의 개발이 이러한 질문에 답하는 데 도움이 될 것이라는 그의 믿음에 더 있습니다.
2002-03년 동안 사람들은 일반적으로 학습은 인간만이 할 수 있는 것이고 컴퓨터는 배울 수 없다고 믿었습니다. 그리고 컴퓨터에 학습 능력이 부여된다면 이는 AI 분야에서 획기적인 발전이 될 것입니다.
이것은 Sutskever가 AI 분야에 정식으로 진출하는 기회가 되기도 했습니다.
그래서 Sutskever는 같은 대학의 Jeff Hinton을 찾았습니다. 그의 견해로는 Hinton이 작업하고 있는 신경망이 획기적인 것입니다. 왜냐하면 신경망의 특성은 자동으로 학습하고 프로그래밍할 수 있는 병렬 컴퓨터에 있기 때문입니다.
당시에는 네트워크 크기와 계산 규모의 중요성에 대해 아무도 관심을 두지 않았습니다. 사람들은 50~100개의 신경망만 훈련시켰고, 그 중 수백 개는 이미 큰 것으로 간주되었으며, 100만 개의 매개변수도 매우 큰 것으로 간주되었습니다.
또한 BLAS를 이해하는 사람이 없기 때문에 최적화되지 않은 CPU 코드에서만 프로그램을 실행할 수 있습니다. 그들은 최적화된 Matlab을 사용하여 어떤 종류의 질문을 하는 것이 더 좋은지 등의 실험을 수행합니다.
그러나 문제는 이것이 매우 분산된 실험이고 실제로 기술 진보를 촉진할 수 없다는 것입니다.
컴퓨터 비전을 위한 신경망 구축
그 당시 Sutskever는 지도 학습이 미래를 향한 길임을 깨달았습니다.
이것은 직관일 뿐만 아니라 확실한 사실입니다. 신경망이 충분히 깊고 크다면 몇 가지 어려운 작업을 해결할 수 있는 능력을 갖게 될 것입니다. 그러나 사람들은 아직 깊고 큰 신경망에 집중하지 않았으며 심지어 신경망에도 전혀 집중하지 않았습니다.
좋은 솔루션을 찾으려면 적당히 큰 데이터 세트와 많은 계산이 필요합니다.
ImageNet이 바로 그 데이터입니다. 당시 ImageNet은 매우 어려운 데이터 세트였지만 대규모 컨볼루션 신경망을 훈련하려면 그에 맞는 컴퓨팅 성능이 있어야 합니다.
다음으로 GPU가 나타날 차례입니다. Jeff Hinton의 제안에 따라 그들은 ImageNet 데이터 세트의 출현으로 컨볼루션 신경망이 GPU에 매우 적합한 모델이므로 매우 빠르게 만들 수 있고 규모가 점점 더 커지고 있다는 것을 발견했습니다.
그러면 이는 이전 방법의 연속을 기반으로 한 것이 아니라 데이터 세트 자체의 난이도와 범위에 있습니다.
OpenAI: 100명에서 ChatGPT까지
OpenAI 초기에 Sutskever는 프로젝트를 홍보하는 방법을 완전히 확신하지 못했다고 솔직하게 인정했습니다.
2016년 초에는 신경망이 그다지 발달하지 않았고 지금보다 연구자 수도 훨씬 적었습니다. Sutskever는 당시 회사에 직원이 100명에 불과했고 그들 대부분은 여전히 Google이나 DeepMind에서 일하고 있었다고 회상했습니다.
하지만 그 당시 그들은 두 가지 큰 아이디어를 가지고 있었습니다.
그 중 하나가 압축을 통한 비지도 학습입니다. 2016년에는 비지도 학습이 머신러닝에서 해결되지 않은 문제였으며 이를 구현하는 방법을 아는 사람이 아무도 없었습니다. 압축은 최근 사람들이 흔히 이야기하는 주제가 아니었는데 갑자기 GPT가 실제로 훈련 데이터를 압축한다는 사실을 모두가 깨달았습니다.
수학적으로 말하면 이러한 자동 회귀 생성 모델을 훈련하면 데이터가 압축되며 직관적으로 작동 이유를 알 수 있습니다. 데이터가 충분히 잘 압축되면 그 안에 있는 모든 숨겨진 정보를 추출할 수 있습니다. 이는 또한 감정 뉴런에 대한 OpenAI의 관련 연구로 직접 이어졌습니다.
동시에 Amazon 리뷰의 다음 문자를 예측하기 위해 동일한 LSTM을 적용했을 때 다음 문자를 충분히 잘 예측하면 LSTM 내에 해당 감정에 해당하는 뉴런이 있다는 것을 발견했습니다. 이는 비지도 학습의 효과를 잘 보여주며 다음 문자 예측에 대한 아이디어도 검증합니다.
하지만 비지도 학습에 대한 데이터는 어디서 얻을 수 있나요? Sutskever는 비지도 학습의 문제점은 데이터보다는 이를 수행하는 이유에 대해 더 많이 설명하고 다음 캐릭터를 예측하기 위해 신경망을 훈련하는 것이 추구하고 탐구할 가치가 있다는 것을 깨닫는 것이라고 말했습니다. 거기에서 이해 가능한 표현을 학습합니다.
또 다른 큰 아이디어는 강화 학습입니다. Sutskever는 항상 더 큰 것이 더 낫다고 믿어왔습니다. OpenAI의 목표 중 하나는 올바른 확장 방법을 찾는 것입니다.
OpenAI가 완성한 첫 번째 대규모 프로젝트는 전략 게임 Dota 2의 구현이었습니다. 당시 OpenAI는 강화학습 에이전트를 훈련시켜 자신과 싸우도록 했습니다. 목표는 일정 수준에 도달하여 인간 플레이어와 게임을 할 수 있게 하는 것이었습니다.
Dota의 강화 학습에서 GPT 출력 기술 기반이 결합된 인간 피드백 강화 학습으로의 전환이 오늘날의 ChatGPT가 되었습니다.
OpenAI가 대규모 신경망을 훈련하는 방법
인터넷의 다양한 텍스트에서 다음 단어를 정확하게 예측하기 위해 대규모 신경망을 훈련할 때 OpenAI가 하는 일은 세계의 모델을 학습하는 것입니다.
텍스트로만 통계적 상관관계를 학습하는 것처럼 보이지만 실제로 이러한 통계적 상관관계를 학습하면 이 지식을 매우 잘 압축할 수 있습니다. 신경망이 학습하는 것은 텍스트를 생성하는 과정에서 몇 가지 표현입니다. 이 텍스트는 실제로 세계의 지도이기 때문에 신경망은 인간과 사회를 보는 관점을 점점 더 많이 배울 수 있습니다. 이는 다음 단어를 정확하게 예측하는 작업에서 신경망이 실제로 학습하는 것입니다.
동시에 다음 단어에 대한 예측이 정확할수록 복원 정도가 높아지며, 이 과정에서 얻은 세계의 해상도도 높아집니다. 이는 사전 훈련 단계의 역할이지만 신경망이 우리가 원하는 대로 작동하도록 만들지는 않습니다.
언어 모델이 실제로 하려는 일은 인터넷에 임의의 텍스트가 있으면 접두사나 힌트로 시작하여 무엇을 완성하는 것입니다.
물론 인터넷에서 텍스트를 찾아 채워 넣을 수도 있지만 이는 원래 고안된 것이 아니므로 여기에는 미세 조정, 인간 교사의 강화 학습 및 기타 형태의 AI 지원이 필요합니다. 활동할 수 있습니다.
그러나 이것은 새로운 지식을 가르치는 것이 아니라 지식과 소통하고 우리가 원하는 것을 전달하는 것입니다. 여기에는 경계도 포함됩니다. 이 프로세스가 더 잘 수행될수록 신경망은 더 유용하고 신뢰할 수 있으며 경계의 충실도는 더 높아집니다.
GPT-4에 대해 다시 이야기합시다
ChatGPT가 가장 빠르게 성장하는 사용자를 보유한 애플리케이션이 된 지 얼마 지나지 않아 GPT-4가 공식적으로 출시되었습니다.
둘의 차이점에 대해 Sutskever는 GPT-4가 ChatGPT에 비해 여러 측면에서 상당한 개선을 이루었다고 말했습니다.
ChatGPT와 GPT-4의 가장 중요한 차이점은 GPT-4를 기반으로 구축하면 더 높은 정확도로 다음 문자를 예측한다는 것입니다. 신경망이 텍스트의 다음 단어를 더 잘 예측할수록 텍스트를 더 잘 이해할 수 있습니다.
예를 들어, 당신이 탐정 소설을 읽었다고 가정해 보겠습니다. 줄거리는 매우 복잡하고 많은 줄거리와 등장인물이 산재해 있으며 신비한 단서가 많이 묻혀 있습니다. 책의 마지막 장에서 형사는 모든 단서를 수집하고 모두를 불러 모아 이제 범인이 누구인지, 그 사람이 누구인지 밝힐 것이라고 하는데...
GPT-4가 예측할 수 있는 것은 이것이다.
사람들은 딥러닝이 논리적 추론을 할 수 없다고 말합니다. 하지만 이 예이든 GPT가 할 수 있는 일이든 어느 정도 추론 능력을 보여줍니다.
Sutskever는 우리가 논리적 추론을 정의할 때, 다음 결정을 내릴 때 어떤 방식으로 생각해 볼 수 있다면 더 나은 답을 얻을 수도 있다고 대답했습니다. 신경망이 얼마나 멀리까지 갈 수 있는지는 아직 알 수 없으며 OpenAI는 아직 그 잠재력을 완전히 활용하지 못했습니다.
실제로 일부 신경망에는 이미 이런 기능이 있지만 대부분은 충분히 신뢰할 수 없습니다. 신뢰성은 이러한 모델을 유용하게 만드는 데 가장 큰 장애물이자 현재 모델의 주요 병목 현상이기도 합니다. 모델에 특정 기능이 있는지 여부가 아니라 얼마나 많은 기능이 있는지가 중요합니다.
Sutskever도 GPT-4가 출시되었을 때 검색 기능이 내장되어 있지 않았다고 말했습니다. 단지 다음 단어를 예측할 수 있는 좋은 도구일 뿐이었지만 이 기능을 완전히 갖추고 있다고 말할 수 있습니다. 검색이 더 잘 됩니다.
GPT-4의 또 다른 중요한 개선 사항은 이미지 응답 및 처리입니다. 다중 모드 학습은 여기서 중요한 역할을 합니다. Sutskever는 다중 모드에는 두 가지 차원이 있다고 말했습니다. 첫 번째는 다중 모드가 신경망, 특히 비전에 유용하다는 것입니다. 이미지에서 배웠습니다.
인공지능의 미래
수츠케버는 AI를 활용해 AI를 훈련할 때 이 부분의 데이터를 무시해서는 안 된다고 말했습니다.
언어 모델의 향후 발전을 예측하기는 어렵지만, Sutskever의 견해에 따르면 이 분야는 계속해서 발전할 것이며 AI는 능력의 경계에서 그 힘으로 계속해서 인류에게 충격을 줄 것이라고 믿을 만한 충분한 이유가 있습니다. AI의 신뢰성은 신뢰할 수 있는지 여부에 따라 결정되며, 미래에는 반드시 완전히 신뢰할 수 있는 지점에 도달할 것입니다.
완전히 이해하지 못하면 질문을 해서 알아내기도 하고, 모른다고 말하기도 합니다. 이러한 부분이 AI 사용성이 가장 큰 영향을 미치고 앞으로 가장 큰 발전을 보일 것입니다. .
이제 우리는 긴 문서를 요약하거나 요약을 얻기 위해 신경망을 원하는 문제에 직면했습니다. 중요한 세부 사항이 간과되지 않았는지 확인하는 방법은 무엇입니까? 모든 독자가 동의할 만큼 중요한 점이 분명하다면 신경망에 의해 요약된 내용을 신뢰할 수 있는 것으로 받아들일 수 있습니다.
신경망이 사용자 의도를 명확하게 따르는지 여부에도 동일하게 적용됩니다.
앞으로 2년 동안 이와 같은 기술이 점점 더 많이 등장하여 이 기술의 신뢰성이 더욱 높아질 것입니다.
관련 보고서: https://blogs.nvidia.com/blog/2023/03/22/sutskever-openai-gtc/
위 내용은 GPT-4는 ChatGPT에 비해 어떤 점이 개선되었나요? Jen-Hsun Huang은 OpenAI 공동 창립자와 '노변 담화'를 가졌습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











DALL-E 3는 이전 모델보다 대폭 개선된 모델로 2023년 9월 공식 출시되었습니다. 복잡한 디테일의 이미지를 생성할 수 있는 현재까지 최고의 AI 이미지 생성기 중 하나로 간주됩니다. 그러나 출시 당시에는 제외되었습니다.

기존 컴퓨팅을 능가할 뿐만 아니라 더 낮은 비용으로 더 효율적인 성능을 달성하는 인공 지능 모델을 상상해 보세요. 이것은 공상과학 소설이 아닙니다. DeepSeek-V2[1], 세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. DeepSeek-V2는 경제적인 훈련과 효율적인 추론이라는 특징을 지닌 전문가(MoE) 언어 모델의 강력한 혼합입니다. 이는 236B 매개변수로 구성되며, 그 중 21B는 각 마커를 활성화하는 데 사용됩니다. DeepSeek67B와 비교하여 DeepSeek-V2는 더 강력한 성능을 제공하는 동시에 훈련 비용을 42.5% 절감하고 KV 캐시를 93.3% 줄이며 최대 생성 처리량을 5.76배로 늘립니다. DeepSeek은 일반 인공지능을 연구하는 회사입니다.

오늘날의 딥러닝 방법은 모델의 예측 결과가 실제 상황에 가장 가깝도록 가장 적합한 목적 함수를 설계하는 데 중점을 두고 있습니다. 동시에 예측을 위한 충분한 정보를 얻을 수 있도록 적합한 아키텍처를 설계해야 합니다. 기존 방법은 입력 데이터가 레이어별 특징 추출 및 공간 변환을 거치면 많은 양의 정보가 손실된다는 사실을 무시합니다. 이 글에서는 딥 네트워크를 통해 데이터를 전송할 때 중요한 문제, 즉 정보 병목 현상과 가역 기능을 살펴보겠습니다. 이를 바탕으로 다중 목표를 달성하기 위해 심층 네트워크에서 요구되는 다양한 변화에 대처하기 위해 PGI(Programmable Gradient Information) 개념을 제안합니다. PGI는 목적 함수를 계산하기 위해 대상 작업에 대한 완전한 입력 정보를 제공할 수 있으므로 네트워크 가중치를 업데이트하기 위한 신뢰할 수 있는 기울기 정보를 얻을 수 있습니다. 또한 새로운 경량 네트워크 프레임워크가 설계되었습니다.

휴머노이드 로봇 아메카가 2세대로 업그레이드 되었습니다! 최근 세계이동통신학회(MWC2024)에서 세계 최고 수준의 로봇 아메카(Ameca)가 다시 등장했다. 행사장 주변에는 아메카가 많은 관중을 끌어 모았습니다. GPT-4의 축복으로 Ameca는 다양한 문제에 실시간으로 대응할 수 있습니다. "춤을 추자." 감정이 있느냐는 질문에 아메카는 매우 생생해 보이는 일련의 표정으로 대답했습니다. 불과 며칠 전, Ameca의 뒤를 잇는 영국 로봇 회사인 EngineeredArts는 팀의 최신 개발 결과를 시연했습니다. 영상 속 로봇 아메카는 시각 능력을 갖고 있어 방 전체와 특정 사물을 보고 묘사할 수 있다. 가장 놀라운 점은 그녀도 할 수 있다는 것입니다.

Llama3에 대해 새로운 테스트 결과가 공개되었습니다. 대형 모델 평가 커뮤니티 LMSYS가 공개한 대형 모델 순위 목록에서 Llama3는 5위에 올랐으며, 영어 부문에서는 GPT-4와 함께 공동 1위를 차지했습니다. 다른 벤치마크와는 그림이 다릅니다. 이 목록은 모델 간 1:1 대결을 기반으로 하며, 네트워크 전체의 평가자들이 각자의 제안과 점수를 내립니다. 결국 Llama3가 5위를 차지했고, GPT-4와 Claude3 Super Cup Opus의 세 가지 버전이 그 뒤를 이었습니다. 영어 싱글 목록에서는 Llama3가 Claude를 제치고 GPT-4와 동점을 기록했습니다. 이 결과에 대해 Meta의 수석 과학자 LeCun은 매우 기뻐했으며 트윗을 통해 다음과 같이 말했습니다.

설치 단계: 1. ChatGTP 공식 웹사이트 또는 모바일 스토어에서 ChatGTP 소프트웨어를 다운로드합니다. 2. 이를 연 후 설정 인터페이스에서 언어를 중국어로 선택합니다. 3. 게임 인터페이스에서 인간-기계 게임을 선택하고 설정합니다. 4. 시작한 후 채팅 창에 명령을 입력하여 소프트웨어와 상호 작용합니다.

볼륨이 미쳤고, 볼륨이 미쳤고, 큰 모델이 다시 변경되었습니다. 바로 지금, 세계에서 가장 강력한 AI 모델이 하룻밤 사이에 주인이 바뀌었고 GPT-4가 제단에서 뽑혔습니다. Anthropic은 최신 Claude3 시리즈 모델을 출시했습니다. 한 문장 리뷰: 정말 GPT-4를 압도합니다! 다중 모드 및 언어 능력 지표 측면에서 Claude3이 승리합니다. Anthropic의 말에 따르면 Claude3 시리즈 모델은 추론, 수학, 코딩, 다국어 이해 및 비전 분야에서 새로운 업계 기준을 설정했습니다! Anthropic은 서로 다른 보안 개념으로 인해 OpenAI에서 "탈퇴"한 직원들이 설립한 스타트업 회사입니다. 그들의 제품은 OpenAI에 반복적으로 큰 타격을 입혔습니다. 이번에는 클로드3도 큰 수술을 받았습니다.

논문 주소: https://arxiv.org/abs/2307.09283 코드 주소: https://github.com/THU-MIG/RepViTRepViT는 모바일 ViT 아키텍처에서 잘 작동하며 상당한 이점을 보여줍니다. 다음으로, 본 연구의 기여를 살펴보겠습니다. 기사에서는 경량 ViT가 일반적으로 시각적 작업에서 경량 CNN보다 더 나은 성능을 발휘한다고 언급했는데, 그 이유는 주로 모델이 전역 표현을 학습할 수 있는 MSHA(Multi-Head Self-Attention 모듈) 때문입니다. 그러나 경량 ViT와 경량 CNN 간의 아키텍처 차이점은 완전히 연구되지 않았습니다. 본 연구에서 저자는 경량 ViT를 효과적인
