GPT-4 논문에는 숨겨진 단서가 있습니다. GPT-5는 훈련을 완료할 수 있으며 OpenAI는 2년 이내에 AGI에 접근할 것입니다.
GPT-4, 뜨겁고 매우 뜨겁습니다.
그런데 가족 여러분, 압도적인 박수 속에 "예상치 못한" 사실이 있었습니다 -
OpenAI가 공개한 기술 문서에는 9가지 비밀 단서가 숨겨져 있습니다!
이 단서는 외국 블로거 AI가 발견하고 정리한 것이라고 설명했습니다.
그는 98페이지 분량의 논문에서 이러한 "숨겨진 모서리"를 하나씩 공개하는 디테일 미치광이입니다. OpenAI는 2년 안에 AGI에 가까운 것을 달성할 수도 있습니다
- ...
- 발견 1: GPT4는 "정지" 상황을 경험했습니다
GPT-4 기술 문서 53페이지에서 OpenAI One 그러한 기관이 언급되었습니다 - Alignment Research Center (ARC).
이 조직이 하는 주요 일은 AI가 인간의 이익을 어떻게 조정할 수 있는지 연구하는 것입니다.
모델을 독립적으로 복제하는 능력
모델의 능력 리소스를 얻으려면
- OpenAI는 논문에서 "ARC는 GPT-4의 초기 버전을 미세 조정할 수 없다"고 "GPT-4의 최종 버전에 액세스할 수 없습니다"라고 강조했지만; 테스트 결과 GPT-4는 위에서 언급한 두 능력의 효율성이 높지 않은 것으로 나타났습니다(AI 윤리적 위험 감소).
하지만 날카로운 눈을 가진 블로거가 꺼낸 것은 다음 문장이었습니다:
(비효율적이라는 것을 알았습니다) "야생에서" 폐쇄되는 것을 피합니다.
블로거는 업계가 적극적으로 자체 규제를 요청하는 것은 매우 드문 현상이라고 생각합니다.
사실 OpenAI 사장 샘 알트먼의 이전 발언은 이보다 더 직설적이었습니다.
당시 알트만은 SVB의 붕괴에 대해 트윗했습니다. 그는 "은행에 대해 더 많은 규제를 해야 한다"고 믿었지만 누군가는 "그는 'AI에 대해 더 많은 규제를 해야 한다'고 말한 적이 없습니다."라고 답했습니다. ".
블로거는 AI 업계가 규제를 요구하고 있다고 믿고 있습니다. 규제 이후의 결과는 기다려 볼 가치가 있습니다.
발견 3: Microsoft 고위 경영진의 생각과 반대됨
다음 발견은 논문 57페이지에 있는 다음 문장을 기반으로 합니다.
OpenAI에서 특히 중요한 관심사 중 하나는 경주 역학이 안전 저하로 이어질 위험이 있다는 것입니다. 표준, 나쁜 규범의 확산, AI 타임라인의 가속화 등 각각 AI와 관련된 사회적 위험이 높아집니다.
OpenAI의 경우 (기술적) 경쟁은 안전 표준의 쇠퇴, 나쁜 규범의 확산, AI 쇠퇴로 이어질 것입니다. AI 개발이 가속화되면서 모두 인공지능과 관련된 사회적 위험을 악화시킵니다.
그런데 이상한 점은 OpenAI가 언급한 우려, 특히 "AI 개발 프로세스의 가속화"가 Microsoft 최고 경영진의 생각과 반대되는 것 같습니다.
이전 보고서에 따르면 Microsoft의 CEO와 CTO는 큰 압박감을 느끼고 있으며 OpenAI의 모델을 가능한 한 빨리 사용자가 사용할 수 있기를 바랍니다.
이 소식을 보고 반가워하는 분들도 계셨지만, OpenAI와 같은 우려를 표하는 분들도 많았습니다.
블로거는 무슨 일이 있어도 OpenAI와 Microsoft가 이 문제에 대해 서로 상충되는 생각을 가지고 있다는 것이 확실하다고 믿습니다.
Discovery 4: OpenAI는 그것을 능가하는 기업을 도울 것입니다
네 번째 발견의 단서는 "Discovery 3"과 같은 페이지의 각주에서 나옵니다.
이 각주는 OpenAI의 매우 대담한 약속을 보여줍니다:
If Another 회사는 우리보다 먼저 AGI(Artificial General Intelligence)를 달성했으므로 우리는 그것과 경쟁하지 않을 것을 약속하지만 반대로 그 프로젝트를 완료하는 데 도움을 줄 것입니다.
그러나 이것이 일어나기 위한 조건은 향후 2년 내에 다른 회사가 AGI에 성공적으로 접근할 기회가 있어야 한다는 것일 수도 있습니다.
여기서 언급된 AGI, OpenAI 및 Altam은 공식 블로그 정의 -
에 나와 있습니다. 일반적으로 인간보다 똑똑하고 모든 인류에게 유익한 인공 지능 시스템.
그래서 블로거는 이 각주가 OpenAI가 향후 2년 내에 AGI를 구현하거나 모든 것을 포기하고 다른 회사와 제휴한다는 것을 의미한다고 믿습니다.
발견 5: "최고 예측가" 고용
블로거의 다음 발견은 논문 57장의 한 구절입니다.
이 구절의 일반적인 의미는 OpenAI가 GPT-4를 배포할 때 발생할 위험을 예측하기 위해 예측 전문가를 고용했다는 것입니다.
그런 다음 블로거는 단서를 따라가며 소위 "슈퍼 예측가"라고 불리는 이들의 진짜 얼굴을 발견했습니다.
이러한 '슈퍼 예측가'의 능력은 독점적인 정보와 지능을 보유한 분석가보다 예측 정확도가 심지어 30% 더 높다고 널리 알려져 있습니다.
방금 언급했듯이 OpenAI는 이러한 "슈퍼 예측자"를 초대하여 GPT-4 배포 후 발생할 수 있는 위험을 예측하고 이를 방지하기 위한 상응하는 조치를 취합니다.
그 중 "슈퍼 예측자"는 올해 가을쯤에 GPT-4 배포를 6개월 연기할 것을 제안했지만 분명히 OpenAI는 그들의 제안을 채택하지 않았습니다.
블로거는 OpenAI가 이렇게 한 이유가 Microsoft의 압력 때문일 수 있다고 믿습니다.
발견 6: 상식을 정복하라
본 논문에서 OpenAI는 어제 압도적인 확산세 속에서 봤어야 할 수많은 벤치마크 테스트 차트를 보여줍니다.
그러나 블로거가 이번 발견에서 강조하고 싶은 것은 7페이지의 벤치마크 테스트이며, 특히 "HellaSwag" 항목에 초점을 맞추고 있습니다.
HellaSwag의 콘텐츠는 주로 상식적인 추론을 바탕으로 하며, 이는 GPT-4가 출시되었을 때 "인간의 상식 수준에 도달했습니다"라는 발표와 일치합니다.
그러나 블로거는 이것이 "사법 시험 합격"이나 다른 능력만큼 매력적이지는 않지만 인류 과학 기술 발전의 이정표라고도 볼 수 있다고 인정했습니다.
그런데 상식은 어떻게 테스트되나요? GPT-4가 인간 수준에 도달했다고 어떻게 판단합니까?
이를 위해 블로거는 관련 논문 연구를 심층적으로 조사했습니다.
블로거는 논문에서 관련 데이터를 찾았습니다. "Human" 열에서는 점수가 94~96.5 사이에 분포했습니다.
그리고 GPT-4의 95.3이 이 범위에 맞습니다.
발견 7개: GPT-5가 교육을 완료했을 수 있음
논문 57페이지에 있는 일곱 번째 발견:
우리는 보안 연구, 위험 평가 및 반복을 수행하는 데 8개월을 보냈습니다.
즉, OpenAI가 작년 말 ChatGPT를 출시했을 때 이미 GPT-4가 있었습니다.
이후부터 해당 블로거는 GPT-5의 훈련 시간이 그리 길지 않을 것이라고 예측했고, 심지어 GPT-5가 훈련을 받았을 수도 있다는 생각까지 했습니다.
그러나 다음 문제는 몇 달, 1년 또는 그 이상이 걸릴 수 있는 장기간의 안전 연구 및 위험 평가입니다.
발견 8: 양날의 검을 사용해 보세요
8번째 발견은 논문 56페이지에 있습니다.
이 구절은 다음과 같이 말합니다.
GPT-4가 경제와 노동력에 미치는 영향은 정책 입안자와 기타 이해관계자가 주요 고려 사항으로 삼아야 합니다.
기존 연구는 인공 지능과 생성 모델이 어떻게 인간을 강화할 수 있는지에 초점을 맞추고 있지만, GPT-4 또는 후속 모델은 특정 작업의 자동화로 이어질 수 있습니다.
OpenAI의 말의 요점은 우리가 자주 언급하는 “기술은 양날의 검”이라는 점보다 더 분명합니다.
블로거는 ChatGPT, GitHub Copilot과 같은 AI 도구가 실제로 관련 작업자의 효율성을 향상시켰다는 증거를 꽤 많이 발견했습니다.
그러나 그는 OpenAI가 제공한 "경고"인 특정 작업의 자동화로 이어지는 논문의 이 단락의 후반부에 더 관심이 있습니다.
블로거들은 결국 이에 동의합니다. GPT-4의 기능은 일부 특정 분야에서 인간보다 10배 또는 그보다 더 높은 효율성으로 완성될 수 있습니다.
미래를 살펴보면 관련 직원의 임금이 삭감되거나 이러한 AI 도구를 사용하여 이전 작업량의 몇 배를 완료해야 하는 등 일련의 문제가 발생할 가능성이 높습니다.
발견 9: 거부하는 법 배우기
블로거의 마지막 발견은 논문 60페이지에서 나왔습니다.
OpenAI가 GPT-4가 거부하는 법을 학습하도록 사용하는 방법을 규칙 기반 보상 모델(RBRM)이라고 합니다.
블로거는 이 방법의 작업 흐름을 설명했습니다. GPT-4에 준수해야 할 일련의 원칙을 제공하고 모델이 이러한 원칙을 준수하는 경우 해당 보상이 제공됩니다.
그는 OpenAI가 인공지능의 힘을 이용해 인간의 원리에 부합하는 방향으로 AI 모델을 개발하고 있다고 믿습니다.
그러나 현재 OpenAI에서는 이에 대해 더 자세하고 심층적인 소개를 제공하지 않습니다.
참조 링크:
[1]https://www.php.cn/link/35adf1ae7eb5734122c84b7a9ea5cc13
[2]https://www.php.cn/link /c6ae9174774e254650073722e5b92a8f
위 내용은 GPT-4 논문에는 숨겨진 단서가 있습니다. GPT-5는 훈련을 완료할 수 있으며 OpenAI는 2년 이내에 AGI에 접근할 것입니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











기존 컴퓨팅을 능가할 뿐만 아니라 더 낮은 비용으로 더 효율적인 성능을 달성하는 인공 지능 모델을 상상해 보세요. 이것은 공상과학 소설이 아닙니다. DeepSeek-V2[1], 세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. DeepSeek-V2는 경제적인 훈련과 효율적인 추론이라는 특징을 지닌 전문가(MoE) 언어 모델의 강력한 혼합입니다. 이는 236B 매개변수로 구성되며, 그 중 21B는 각 마커를 활성화하는 데 사용됩니다. DeepSeek67B와 비교하여 DeepSeek-V2는 더 강력한 성능을 제공하는 동시에 훈련 비용을 42.5% 절감하고 KV 캐시를 93.3% 줄이며 최대 생성 처리량을 5.76배로 늘립니다. DeepSeek은 일반 인공지능을 연구하는 회사입니다.

2023년에는 AI 기술이 화두가 되면서 다양한 산업, 특히 프로그래밍 분야에 큰 영향을 미치고 있다. 사람들은 AI 기술의 중요성을 점점 더 인식하고 있으며 Spring 커뮤니티도 예외는 아닙니다. GenAI(일반 인공 지능) 기술이 지속적으로 발전함에 따라 AI 기능을 갖춘 애플리케이션 생성을 단순화하는 것이 중요하고 시급해졌습니다. 이러한 배경에서 AI 기능 애플리케이션 개발 프로세스를 단순화하고 간단하고 직관적이며 불필요한 복잡성을 피하는 것을 목표로 하는 "SpringAI"가 등장했습니다. 'SpringAI'를 통해 개발자는 AI 기능이 포함된 애플리케이션을 더욱 쉽게 구축할 수 있어 사용 및 운영이 더욱 쉬워진다.

OpenAI는 최근 최신 세대 임베딩 모델 embeddingv3의 출시를 발표했습니다. 이는 더 높은 다국어 성능을 갖춘 가장 성능이 뛰어난 임베딩 모델이라고 주장합니다. 이 모델 배치는 더 작은 text-embeddings-3-small과 더 강력하고 더 큰 text-embeddings-3-large의 두 가지 유형으로 나뉩니다. 이러한 모델이 어떻게 설계되고 학습되는지에 대한 정보는 거의 공개되지 않으며 모델은 유료 API를 통해서만 액세스할 수 있습니다. 그렇다면 오픈소스 임베딩 모델이 많이 있습니다. 그러나 이러한 오픈소스 모델은 OpenAI 폐쇄소스 모델과 어떻게 비교됩니까? 이 기사에서는 이러한 새로운 모델의 성능을 오픈 소스 모델과 실증적으로 비교할 것입니다. 데이터를 만들 계획입니다.

Llama3에 대해 새로운 테스트 결과가 공개되었습니다. 대형 모델 평가 커뮤니티 LMSYS가 공개한 대형 모델 순위 목록에서 Llama3는 5위에 올랐으며, 영어 부문에서는 GPT-4와 함께 공동 1위를 차지했습니다. 다른 벤치마크와는 그림이 다릅니다. 이 목록은 모델 간 1:1 대결을 기반으로 하며, 네트워크 전체의 평가자들이 각자의 제안과 점수를 내립니다. 결국 Llama3가 5위를 차지했고, GPT-4와 Claude3 Super Cup Opus의 세 가지 버전이 그 뒤를 이었습니다. 영어 싱글 목록에서는 Llama3가 Claude를 제치고 GPT-4와 동점을 기록했습니다. 이 결과에 대해 Meta의 수석 과학자 LeCun은 매우 기뻐했으며 트윗을 통해 다음과 같이 말했습니다.

휴머노이드 로봇 아메카가 2세대로 업그레이드 되었습니다! 최근 세계이동통신학회(MWC2024)에서 세계 최고 수준의 로봇 아메카(Ameca)가 다시 등장했다. 행사장 주변에는 아메카가 많은 관중을 끌어 모았습니다. GPT-4의 축복으로 Ameca는 다양한 문제에 실시간으로 대응할 수 있습니다. "춤을 추자." 감정이 있느냐는 질문에 아메카는 매우 생생해 보이는 일련의 표정으로 대답했습니다. 불과 며칠 전, Ameca의 뒤를 잇는 영국 로봇 회사인 EngineeredArts는 팀의 최신 개발 결과를 시연했습니다. 영상 속 로봇 아메카는 시각 능력을 갖고 있어 방 전체와 특정 사물을 보고 묘사할 수 있다. 가장 놀라운 점은 그녀도 할 수 있다는 것입니다.

AI 모델이 내놓은 답변이 전혀 이해하기 어렵다면 감히 사용해 보시겠습니까? 기계 학습 시스템이 더 중요한 영역에서 사용됨에 따라 우리가 그 결과를 신뢰할 수 있는 이유와 신뢰할 수 없는 경우를 보여주는 것이 점점 더 중요해지고 있습니다. 복잡한 시스템의 출력에 대한 신뢰를 얻는 한 가지 가능한 방법은 시스템이 인간이나 다른 신뢰할 수 있는 시스템이 읽을 수 있는 출력 해석을 생성하도록 요구하는 것입니다. 즉, 가능한 오류가 발생할 수 있는 지점까지 완전히 이해할 수 있습니다. 설립하다. 예를 들어, 사법 시스템에 대한 신뢰를 구축하기 위해 우리는 법원이 자신의 결정을 설명하고 뒷받침하는 명확하고 읽기 쉬운 서면 의견을 제공하도록 요구합니다. 대규모 언어 모델의 경우 유사한 접근 방식을 채택할 수도 있습니다. 그러나 이 접근 방식을 사용할 때는 언어 모델이 다음을 생성하는지 확인하세요.

작성자丨컴파일: TimAnderson丨제작: Noah|51CTO Technology Stack(WeChat ID: blog51cto) Zed 편집기 프로젝트는 아직 출시 전 단계에 있으며 AGPL, GPL 및 Apache 라이선스에 따라 오픈 소스로 제공됩니다. 이 편집기는 고성능과 다양한 AI 지원 옵션을 제공하지만 현재는 Mac 플랫폼에서만 사용할 수 있습니다. Nathan Sobo는 게시물에서 GitHub의 Zed 프로젝트 코드 베이스에서 편집기 부분은 GPL에 따라 라이선스가 부여되고 서버 측 구성 요소는 AGPL에 따라 라이선스가 부여되며 GPUI(GPU Accelerated User) 인터페이스) 부분은 GPL에 따라 라이선스가 부여된다고 설명했습니다. Apache2.0 라이센스. GPUI는 Zed 팀에서 개발한 제품입니다.

시험 문제가 너무 단순하면 상위권 학생과 하위 학생 모두 90점을 받을 수 있어 격차가 더 벌어질 수 없다… 클로드3, 라마3, 심지어 GPT-5 등 더욱 강력한 모델이 출시되면서 업계는 보다 어렵고 차별화된 모델 벤치마크가 시급히 필요합니다. 대형 모델 아레나를 운영하는 조직인 LMSYS가 차세대 벤치마크인 Arena-Hard를 출시해 큰 관심을 끌었습니다. Llama3 명령의 두 가지 미세 조정 버전의 강점에 대한 최신 참조도 있습니다. 이전에 비슷한 점수를 받았던 MTBench와 비교하면 Arena-Hard 판별력이 22.6%에서 87.4%로 증가해 한눈에 봐도 강하고 약해졌습니다. Arena-Hard는 경기장의 실시간 인간 데이터를 사용하여 구축되었으며 인간 선호도와 89.1%의 일치율을 가지고 있습니다.
