물론 어제의 OpenAI를 이길 수 있는 것은 오늘날의 OpenAI뿐입니다.
방금 OpenAI는 이미지와 텍스트 입력을 지원하고 텍스트 결과를 생성하는 대규모 멀티모달 모델 GPT-4를 충격적으로 출시했습니다.
역사상 가장 발전된 AI 시스템으로 알려져 있습니다!
GPT-4는 그림을 이해하는 눈을 가지고 있을 뿐만 아니라 GRE를 포함한 주요 시험에서 만점에 가까운 성적을 거두며 각종 벤치마크를 휩쓸고 성적 지표도 압도적이다.
OpenAI는 적대적인 테스트 절차와 ChatGPT에서 배운 교훈을 사용하여 GPT-4를 반복적으로 조정하는 데 6개월을 보냈으며 그 결과 현실성, 제어 가능성 등의 측면에서 최고의 결과를 얻었습니다.
마이크로소프트가 2월 초 3일 동안 치열하게 싸웠던 것을 모두가 기억합니다. 마이크로소프트가 2월 8일 ChatGPT와 Bing을 출시했을 때, Bing은 "ChatGPT와 같은 기술을 기반으로 한다"고 말했습니다.
오늘 드디어 미스터리가 풀렸습니다. 그 뒤에 숨은 큰 모델은 GPT-4입니다!
튜링상 3대 거인 중 한 명인 제프리 힌튼은 이에 감탄하며 "애벌레가 영양분을 흡수한 뒤 고치가 되어 나비가 된다. 그리고 인간은 수십억 개의 금 덩어리 이해, GPT-4는 인간 나비입니다."
그런데, ChatGPT Plus 사용자는 지금 시작할 수 있습니다.
간담회에서 GPT-3.5와 GPT-4의 차이는 매우 미묘합니다. 작업의 복잡성이 충분한 임계값에 도달한 경우에만 차이가 드러납니다. GPT-4는 GPT-3.5보다 더 안정적이고 창의적이며 더 미묘한 지침을 처리할 수 있습니다.
두 모델의 차이점을 이해하기 위해 OpenAI는 다양한 벤치마크와 인간을 위해 설계된 일부 모의 시험에서 테스트되었습니다.
GPT-4 다양한 시험 중에는 거의 만점에 가까운 여러 시험이 있습니다:
함께 미국 예를 들어, 통합 BAR 변호사 자격증 시험에서 GPT3.5는 10% 수준, GPT4는 90% 수준에 도달할 수 있습니다. 생물학올림피아드는 GPT3.5 31% 수준에서 99% 수준으로 직격탄을 맞았다.
또한 OpenAI는 기계 학습 모델용으로 설계된 기존 벤치마크에서 GPT-4를 평가했습니다. 실험 결과로 볼 때, GPT-4는 기존의 대규모 언어 모델 및 대부분의 SOTA 모델보다 훨씬 뛰어납니다.
또한, 다양한 언어에서 GPT-4의 성능: 중국어 정확도는 약 80% 정도입니다. 이미 GPT-3.5의 영어 성능보다 낫습니다.
많은 기존 ML 벤치마크가 영어로 작성되었습니다. 다른 언어로 GPT-4의 기능을 먼저 살펴보기 위해 연구원들은 Azure Translate를 사용하여 MMLU 벤치마크(57개 주제를 다루는 14,000개의 객관식 질문 세트)를 여러 언어로 번역했습니다.
테스트된 26개 언어 중 24개 언어에서 GPT-4는 GPT-3.5 및 기타 대규모 언어 모델(Chinchilla, PaLM)보다 성능이 뛰어납니다. 영어 성능:
OpenAI는 내부적으로 GPT-4를 사용한다고 밝혔기 때문에 콘텐츠 생성, 판매, 프로그래밍에서 대규모 언어 모델의 적용 효과에도 주목합니다. 또한 내부자는 이를 사용하여 인간이 AI 결과를 평가하는 데 도움을 줍니다.
이와 관련하여 Li Feifei의 제자이자 NVIDIA AI 과학자인 Jim Fan은 다음과 같이 말했습니다. "GPT-4의 가장 강력한 점은 실제로 추론 능력입니다. GRE, SAT 및 로스쿨 시험 점수는 거의 즉, GPT-4는 스스로 스탠포드에 들어갈 수 있다."
(Jim Fan 본인도 스탠포드 졸업!)
네티즌: GPT-4가 나오면 끝, 이제 우리 인간은 필요 없을 것입니다...
이번 GPT-4 업그레이드의 하이라이트는 물론 다중 모드입니다.
GPT-4는 그래픽 아이콘을 분석하고 요약할 수 있을 뿐만 아니라 밈을 읽고 밈이 어디에 있는지, 왜 재미있는지 설명할 수도 있습니다. 이런 의미에서 그것은 심지어 많은 인간을 즉시 죽일 수도 있다.
OpenAI는 GPT-4가 이전 모델보다 더 창의적이고 협력적이라고 주장합니다. 노래 작곡, 각본 작성 또는 사용자의 작문 스타일 학습과 같은 창의적이고 기술적인 작문 작업을 위해 사용자를 생성, 편집 및 반복할 수 있습니다.
GPT-4는 이미지를 입력으로 가져와 캡션, 분류 및 분석을 생성할 수 있습니다. 예를 들어, 재료에 대한 사진을 주고 이 재료로 무엇을 할 수 있는지 물어보세요.
또한 GPT-4는 25,000단어 이상의 텍스트를 처리할 수 있어 장문의 콘텐츠 생성, 확장된 대화, 문서 검색 및 분석이 가능합니다.
GPT-4는 고급 추론 기능에서 ChatGPT를 능가합니다. 다음과 같습니다:
예를 들어, 이상한 밈 사진을 보여주고 사진에서 재미있는 것이 무엇인지 물어보세요.
GPT-4를 받은 후 먼저 사진 물결의 내용을 분석한 다음 답변을 제공합니다.
예를 들어 다음 그림을 그림별로 분석해 보세요.
GPT-4는 즉시 반응했습니다. 사진의 "조명 충전 케이블"은 이 작고 현대적인 스마트폰에 연결된 크고 오래된 VGA 인터페이스처럼 보입니다. 대비가 강합니다.
이런 밈이 또 있는데 GPT-4 밈은 어디에 있나요?
유창하게 대답했습니다. 이 밈의 재미있는 점은 "그림과 텍스트가 일치하지 않습니다"입니다.
텍스트에는 우주에서 찍은 지구 사진이라고 명시되어 있지만 실제로 사진은 지도처럼 배열된 치킨 너겟 묶음일 뿐입니다.
GPT-4는 만화도 이해할 수 있습니다. 신경망에 레이어를 추가해야 하는 이유는 무엇입니까?
이 만화는 모델 성능 향상에 있어서 통계 학습과 신경망의 차이를 풍자합니다.
조지아와 서아시아의 일일 평균 육류 소비량을 합친 수치는 얼마입니까? 답변을 제공하기 전에 단계별 추론을 제공하십시오.
물론 GPT-4는 문제를 해결하기 위한 자체 단계를 명확하게 나열했습니다.
1 조지아의 일일 평균 육류 소비량을 결정합니다.
2. 서아시아의 일일 평균 육류 소비량을 결정합니다.
3. 1단계와 2단계의 값을 추가합니다.
에서는 볼로미터의 방사선 검출 원리인 Ecole Polytechnique의 물리학 문제를 풀기 위해 GPT-4가 필요합니다. 이것이 여전히 프랑스어 질문이라는 점은 주목할 가치가 있습니다.
GPT-4 문제 해결 시작: 질문 I.1.a에 답하려면 전도성 막대의 가로좌표 x로 표시되는 각 점의 온도 T(x)가 필요합니다.
다음 문제 해결 과정에는 에너지가 넘칩니다.
이것이 GPT-4의 모든 기능이라고 생각하시나요?
Greg Brockman 사장님이 직접 온라인으로 시연해 주셨는데요, 이번 영상을 통해 GPT-4의 성능을 직관적으로 느끼실 수 있습니다.
가장 놀라운 점은 GPT-4가 코드를 이해하고 코드 생성을 돕는 강력한 능력을 가지고 있다는 것입니다.
그렉님이 종이에 직접 낙서한 도표를 그려서 사진을 찍어 GPT로 보내주시고 이 레이아웃에 맞춰 웹페이지 코드를 작성하라고 하셔서 작성해주셨어요.
또한 작동 중에 오류가 발생하면 오류 메시지 또는 오류 메시지의 스크린샷을 GPT-4로 보내 해당 프롬프트를 제공하세요.
네티즌 전화 : GPT-4 컨퍼런스, 프로그래머 교체 방법을 단계별로 가르쳐주세요.
그런데 GPT-4를 사용하여 세금을 신고할 수도 있습니다. 아시다시피 미국인들은 매년 세금을 신고하는 데 많은 시간과 돈을 소비합니다.
이전 GPT 모델과 마찬가지로 GPT-4 기본 모델의 훈련에서는 문서의 다음 단어를 예측할 목적으로 공개 인터넷 데이터와 OpenAI에서 승인한 데이터를 사용합니다.
데이터는 수학적 문제에 대한 올바른/잘못된 해결책, 약한/강한 추론, 모순/일관된 진술을 포함하는 인터넷 기반 자료로서 수많은 이념과 아이디어를 표현하기에 충분합니다.
사용자가 질문하라는 프롬프트를 주면 기본 모델에서는 다양한 방식으로 응답할 수 있지만 답변이 사용자의 의도와는 거리가 멀 수 있습니다.
그래서 OpenAI는 사용자의 의도에 맞추기 위해 인간 피드백(RLHF)을 기반으로 한 강화 학습을 사용하여 모델의 동작을 미세 조정합니다.
그러나 모델의 능력은 주로 사전 훈련 과정에서 나오는 것으로 보이며 RLHF는 테스트 점수를 향상시킬 수 없습니다(적극적으로 강화하지 않으면 실제로 테스트 점수가 감소합니다).
기본 모델은 질문에 답해야 한다는 사실을 프로젝트에 알리도록 유도해야 하므로 모델 지침은 주로 학습 후 프로세스에서 나옵니다.
GPT-4 모델의 주요 초점은 예측 가능하게 확장 가능한 딥 러닝 스택을 구축하는 것입니다. GPT-4와 같은 대규모 훈련의 경우 광범위한 모델별 튜닝이 불가능하기 때문입니다.
따라서 OpenAI 팀은 다양한 규모에서 예측 가능한 동작을 갖는 인프라와 최적화를 개발했습니다.
이 확장성을 검증하기 위해 연구원들은 동일한 방법을 사용하여 훈련된 모델에서 추론하여 내부 코드베이스(훈련 세트의 일부가 아님)에서 GPT-4의 최종 손실을 미리 정확하게 예측했습니다. 사용된 값은 1/10000입니다.
이제 OpenAI는 훈련 중에 최적화된 측정항목 손실을 정확하게 예측할 수 있습니다. 예를 들어, 계산 부하가 1/1000인 모델에서 추론하고 HumanEval 데이터 세트의 하위 집합의 합격률을 성공적으로 예측한 경우:
여전히 예측하기 어려운 능력도 있습니다. 예를 들어, Inverse Scaling 대회에서는 모델의 계산 부하가 증가함에 따라 악화되는 측정항목을 찾는 것이 목표였으며 사후 판단 무시 작업이 승자 중 하나였습니다. 그러나 GPT-4는 이러한 추세를 뒤집었습니다.
OpenAI는 미래를 정확하게 예측할 수 있는 머신러닝 기능이 기술 보안에 중요하다고 믿고 있지만 충분한 관심을 받지 못했습니다.
이제 OpenAI는 관련 방법 개발에 더 많은 에너지를 투자하고 업계의 협력을 촉구하고 있습니다.
기여 목록
GPT-4 출시와 동시에 Open AI는 GPT-4의 조직 구조와 인사 목록도 공개했습니다.
위아래로 스와이프하여 모두 확인하세요
북경대학교 Chen Baoquan 교수는 이렇게 말했습니다.
영화가 아무리 좋아도 최종 크레딧을 처음부터 끝까지 보는 사람은 아무도 없습니다. Open AI의 쇼는 특이한 접근조차 하지 않습니다. 가장 많이 읽혀질 뿐만 아니라, 세심하게 연구된 '캐스트 멤버'(기고자)의 목록이 될 것이라는 데는 의심의 여지가 없습니다.
이 매우 "대담한" 공개는 실제로 Open AI의 핵심 개념을 반영하고 향후 발전 방향을 어느 정도 나타냅니다.
위 내용은 GPT-4 왕이 즉위했습니다! 그림을 읽고 질문에 대답하는 능력은 정말 놀랍습니다. 혼자서도 스탠포드에 들어갈 수 있습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!