GPT-4의 지능 수준 저하에 대한 새로운 해석
출시 이후 세계에서 가장 강력한 언어 모델 중 하나로 꼽혀온 GPT-4는 불행하게도 일련의 신뢰 위기를 경험했습니다.
GPT-4가 "게으르다"는 최근 소문은 올해 초 발생한 "간헐적 지능" 사건을 OpenAI의 GPT-4 아키텍처 재설계와 연결하면 더욱 흥미롭습니다. 누군가 테스트한 결과 GPT-4에게 "겨울 방학입니다"라고 말하면 마치 최대 절전 모드에 들어간 것처럼 게으르게 된다는 사실을 발견했습니다.
새로운 작업에 대한 모델의 제로 샘플 성능 문제를 해결하기 위해 다음 방법을 사용할 수 있습니다. 1. 데이터 향상: 기존 데이터를 확장하고 변환하여 모델의 일반화 능력을 높입니다. 예를 들어 이미지 데이터는 회전, 크기 조정, 변환 등을 통해 변경되거나 새로운 데이터 샘플을 합성하여 변경할 수 있습니다. 2. 전이 학습: 다른 작업에 대해 훈련된 모델을 사용하여 매개변수와 지식을 새로운 작업으로 전송합니다. 이는 기존 지식과 경험을 활용하여 GPT-4의 성능을 향상시킬 수 있습니다. 최근 캘리포니아 대학교 산타 크루즈(University of California, Santa Cruz)의 연구자들은 GPT-4의 성능 저하에 대한 더 깊은 이유를 설명할 수 있는 새로운 발견을 발표했습니다. .
"우리는 LLM이 훈련 데이터 생성 날짜 이후에 발표된 데이터 세트보다 훈련 데이터 생성 날짜 이전에 발표된 데이터 세트에서 놀라울 정도로 더 나은 성능을 발휘한다는 것을 발견했습니다."
그들은 작업에서는 잘 수행되고 작업에서는 저조한 성능을 "보였습니다" 새로운 작업. 즉, LLM은 대략적인 검색을 기반으로 지능을 모방하는 방법일 뿐이며, 주로 아무런 수준의 이해 없이 암기하는 방식입니다.
솔직히 말하면 LLM의 일반화 능력은 "말씀한 것만큼 강력하지 않습니다". 기초가 탄탄하지 않고 실제 전투에서는 항상 실수가 발생합니다.
이 결과의 주요 원인은 데이터 오염의 한 형태인 '작업 오염'입니다. 이전에 우리에게 익숙한 데이터 오염은 테스트 데이터 오염으로, 사전 훈련 데이터에 테스트 데이터 예시와 라벨이 포함되는 것입니다. "작업 오염"은 사전 훈련 데이터에 작업 훈련 예제를 추가하여 제로 샘플 또는 소수 샘플 방법의 평가를 더 이상 현실적이고 효과적이지 않게 만드는 것입니다.
연구원은 논문에서 처음으로 데이터 오염 문제에 대한 체계적인 분석을 실시했습니다.
이 글을 읽은 후 논문에서 누군가 "비관적"이라고 말했습니다.
즉, 프로그래밍 언어가 지속적으로 업데이트됨에 따라 LLM 기반 코딩 도구도 성능이 저하됩니다. 이것이 그렇게 취약한 도구에 너무 많이 의존할 필요가 없는 이유 중 하나입니다.
이러한 모델을 지속적으로 재교육하는 데는 비용이 많이 들고 조만간 누군가는 이러한 비효율적인 방법을 포기하게 될 것입니다. 현재 이전 인코딩 작업에 심각한 중단이나 성능 손실을 초래하지 않고 변화하는 입력 분포에 안정적이고 지속적으로 적응할 수 있는 ML 모델은 없습니다.실험에는 12개의 모델이 사용되었습니다(표 1 참조). 그 중 5개는 독점 GPT-3 시리즈 모델이고 7개는 프리 웨이트 모델입니다.그리고 이것은 생물학적 신경망이 잘하는 분야 중 하나입니다. 생물학적 신경망의 강력한 일반화 능력으로 인해 다양한 작업을 학습하면 시스템 성능이 더욱 향상될 수 있습니다. 왜냐하면 하나의 작업에서 얻은 지식이 "메타 학습"이라고 불리는 전체 학습 과정 자체를 개선하는 데 도움이 되기 때문입니다.
"업무 오염" 문제는 얼마나 심각한가요? 논문의 내용을 살펴보겠습니다.모델 및 데이터 세트
데이터 세트는 2021년 1월 1일 이전 또는 이후에 공개된 데이터 세트라는 두 가지 범주로 나뉩니다. 연구원들은 이 분할 방법을 사용하여 이전 데이터 세트와 새로운 데이터 세트의 차이를 제로 샘플로 분석합니다. 또는 소수의 샘플 성능 차이를 고려하고 모든 LLM에 대해 동일한 분할 방법을 채택합니다. 표 1은 각 모델 학습 데이터의 생성 시간을 나열하고, 표 2는 각 데이터 세트의 출시 날짜를 나열합니다.
위 접근 방식에 대한 고려 사항은 제로 샷 및 퓨 샷 평가에는 모델이 훈련 중에 본 적이 없거나 몇 번만 본 작업에 대한 예측이 포함된다는 것입니다. 핵심 전제는 모델이 사전에 노출되지 않는다는 것입니다. 완료해야 할 특정 작업을 수행하여 학습 능력에 대한 공정한 평가를 보장합니다. 그러나 오염된 모델은 사전 훈련 중에 작업 예제에 대한 훈련을 받았기 때문에 노출되지 않았거나 몇 번만 노출된 것처럼 보이는 역량에 대한 환상을 줄 수 있습니다. 연대순 데이터 세트에서는 중복이나 이상이 명백하므로 이러한 불일치를 감지하는 것이 상대적으로 더 쉽습니다.
측정 방법
연구원들은 "작업 오염"을 측정하기 위해 다음 네 가지 방법을 사용했습니다.
- 훈련 데이터 검사: 훈련 데이터에서 작업 훈련 예시를 검색합니다.
- 작업 예시 추출: 기존 모델에서 작업 예시를 추출합니다. Instruction-tuned 모델만 추출이 가능하며, 이 분석은 학습 데이터나 테스트 데이터 추출에도 활용될 수 있습니다. 작업 오염을 감지하기 위해 추출된 작업 예제가 기존 교육 데이터 예제와 정확히 일치할 필요는 없습니다. 작업을 시연하는 모든 예는 제로 샷 학습 및 소수 샷 학습의 오염 가능성을 보여줍니다.
- 회원 추론: 이 방법은 생성 작업에만 적합합니다. 입력 인스턴스의 모델 생성 콘텐츠가 원본 데이터 세트와 정확히 동일한지 확인합니다. 정확히 일치하면 LLM 훈련 데이터의 구성원이라고 유추할 수 있습니다. 이는 생성된 출력이 정확히 일치하는지 확인한다는 점에서 작업 예제 추출과 다릅니다. 개방형 생성 작업의 정확한 일치는 모델이 "심령"이고 데이터에 사용된 정확한 단어를 알고 있지 않는 한 모델이 훈련 중에 이러한 예를 보았다는 것을 강력하게 나타냅니다. (참고: 빌드 작업에만 사용할 수 있습니다.)
- 타이밍 분석: 알려진 기간 동안 훈련 데이터가 수집된 모델 세트의 경우 알려진 릴리스 날짜가 있는 데이터 세트에서 성능을 측정하고 타이밍을 사용하여 오염을 확인합니다. 증거 증거.
처음 세 가지 방법은 정밀도는 높지만 재현율이 낮습니다. 작업의 훈련 데이터에서 데이터를 찾을 수 있다면 모델이 예제를 보았음을 확신할 수 있습니다. 그러나 데이터 형식의 변경, 작업을 정의하는 데 사용되는 키워드의 변경 및 데이터 세트의 크기로 인해 처음 세 가지 방법을 사용하여 오염 증거를 찾지 못했다고 해서 오염이 없음을 증명하는 것은 아닙니다.
네 번째 방법인 연대순 분석은 재현율은 높지만 정확도가 낮습니다. 작업 오염으로 인해 성능이 높으면 연대순 분석을 통해 이를 발견할 가능성이 높습니다. 그러나 시간이 지남에 따라 성능이 향상되어 정확도가 떨어지는 다른 요인도 있을 수 있습니다.
따라서 연구원들은 작업 오염을 감지하기 위해 네 가지 방법을 모두 사용했으며 특정 모델과 데이터 세트 조합에서 작업 오염에 대한 강력한 증거를 발견했습니다.
먼저 테스트된 모든 모델과 데이터 세트에 대해 타이밍 분석을 수행했습니다. 그런 다음 교육 데이터 검사와 작업 예제 추출을 사용하여 작업 오염에 대한 추가 증거를 찾은 다음 오염에 대한 LLM 성능을 관찰했습니다. -자유로운 작업, 마지막으로 멤버십 추론 공격을 이용한 추가 분석이 가능합니다.
핵심 결론은 다음과 같습니다.
1. 연구진은 각 모델의 학습 데이터를 인터넷에서 크롤링하기 전후에 생성된 데이터 세트를 분석했습니다. LLM 교육 데이터를 수집하기 전에 생성된 데이터세트의 경우 대부분의 기준선을 초과하는 성능을 발휘할 확률이 훨씬 더 높은 것으로 나타났습니다(그림 1).
2. 연구원은 가능한 작업 오염을 찾기 위해 훈련 데이터 검사 및 작업 예제 추출을 수행했습니다. 작업 오염 가능성이 낮은 분류 작업의 경우 모델은 제로 샷이든 소수 샷이든 관계없이 다양한 작업에 걸쳐 단순 다수 기준에 비해 통계적으로 유의미한 개선을 거의 달성하지 못하는 것으로 나타났습니다(그림 2).
연구원들은 그림 3과 같이 GPT-3 시리즈의 평균 성능을 확인하고 시간이 지남에 따라 LLM을 열었습니다.
3. 연구진은 의미 분석 작업에 대한 멤버십 추론 공격도 분석한 모든 모델에 대해 시도했는데, 추출된 인스턴스 수와 최종 작업에서 모델의 정확도 사이에 강한 상관관계(R=.88)가 발견되었습니다(그림 6). ) . 이는 이 작업의 제로샷 성능 향상이 작업 오염으로 인한 것임을 강력히 입증합니다.
4. 또한 연구원들은 GPT-3 시리즈 모델을 주의 깊게 연구한 결과 GPT-3 모델에서 훈련 예제를 추출할 수 있다는 것을 발견했으며, davinci부터 GPT-3.5-turbo까지 각 버전에서 가능한 훈련 예제의 수는 매우 많습니다. 이는 이 작업에 대한 GPT-3 모델의 제로샷 성능 향상과 밀접한 관련이 있습니다(그림 2). 이는 이러한 작업에서 davinci에서 GPT-3.5-turbo로의 GPT-3 모델의 성능 향상이 작업 오염으로 인한 것임을 강력하게 입증합니다.
위 내용은 GPT-4의 지능 수준 저하에 대한 새로운 해석의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











기존 컴퓨팅을 능가할 뿐만 아니라 더 낮은 비용으로 더 효율적인 성능을 달성하는 인공 지능 모델을 상상해 보세요. 이것은 공상과학 소설이 아닙니다. DeepSeek-V2[1], 세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. DeepSeek-V2는 경제적인 훈련과 효율적인 추론이라는 특징을 지닌 전문가(MoE) 언어 모델의 강력한 혼합입니다. 이는 236B 매개변수로 구성되며, 그 중 21B는 각 마커를 활성화하는 데 사용됩니다. DeepSeek67B와 비교하여 DeepSeek-V2는 더 강력한 성능을 제공하는 동시에 훈련 비용을 42.5% 절감하고 KV 캐시를 93.3% 줄이며 최대 생성 처리량을 5.76배로 늘립니다. DeepSeek은 일반 인공지능을 연구하는 회사입니다.

2023년에는 AI 기술이 화두가 되면서 다양한 산업, 특히 프로그래밍 분야에 큰 영향을 미치고 있다. 사람들은 AI 기술의 중요성을 점점 더 인식하고 있으며 Spring 커뮤니티도 예외는 아닙니다. GenAI(일반 인공 지능) 기술이 지속적으로 발전함에 따라 AI 기능을 갖춘 애플리케이션 생성을 단순화하는 것이 중요하고 시급해졌습니다. 이러한 배경에서 AI 기능 애플리케이션 개발 프로세스를 단순화하고 간단하고 직관적이며 불필요한 복잡성을 피하는 것을 목표로 하는 "SpringAI"가 등장했습니다. 'SpringAI'를 통해 개발자는 AI 기능이 포함된 애플리케이션을 더욱 쉽게 구축할 수 있어 사용 및 운영이 더욱 쉬워진다.

OpenAI는 최근 최신 세대 임베딩 모델 embeddingv3의 출시를 발표했습니다. 이는 더 높은 다국어 성능을 갖춘 가장 성능이 뛰어난 임베딩 모델이라고 주장합니다. 이 모델 배치는 더 작은 text-embeddings-3-small과 더 강력하고 더 큰 text-embeddings-3-large의 두 가지 유형으로 나뉩니다. 이러한 모델이 어떻게 설계되고 학습되는지에 대한 정보는 거의 공개되지 않으며 모델은 유료 API를 통해서만 액세스할 수 있습니다. 그렇다면 오픈소스 임베딩 모델이 많이 있습니다. 그러나 이러한 오픈소스 모델은 OpenAI 폐쇄소스 모델과 어떻게 비교됩니까? 이 기사에서는 이러한 새로운 모델의 성능을 오픈 소스 모델과 실증적으로 비교할 것입니다. 데이터를 만들 계획입니다.

휴머노이드 로봇 아메카가 2세대로 업그레이드 되었습니다! 최근 세계이동통신학회(MWC2024)에서 세계 최고 수준의 로봇 아메카(Ameca)가 다시 등장했다. 행사장 주변에는 아메카가 많은 관중을 끌어 모았습니다. GPT-4의 축복으로 Ameca는 다양한 문제에 실시간으로 대응할 수 있습니다. "춤을 추자." 감정이 있느냐는 질문에 아메카는 매우 생생해 보이는 일련의 표정으로 대답했습니다. 불과 며칠 전, Ameca의 뒤를 잇는 영국 로봇 회사인 EngineeredArts는 팀의 최신 개발 결과를 시연했습니다. 영상 속 로봇 아메카는 시각 능력을 갖고 있어 방 전체와 특정 사물을 보고 묘사할 수 있다. 가장 놀라운 점은 그녀도 할 수 있다는 것입니다.

Llama3에 대해 새로운 테스트 결과가 공개되었습니다. 대형 모델 평가 커뮤니티 LMSYS가 공개한 대형 모델 순위 목록에서 Llama3는 5위에 올랐으며, 영어 부문에서는 GPT-4와 함께 공동 1위를 차지했습니다. 다른 벤치마크와는 그림이 다릅니다. 이 목록은 모델 간 1:1 대결을 기반으로 하며, 네트워크 전체의 평가자들이 각자의 제안과 점수를 내립니다. 결국 Llama3가 5위를 차지했고, GPT-4와 Claude3 Super Cup Opus의 세 가지 버전이 그 뒤를 이었습니다. 영어 싱글 목록에서는 Llama3가 Claude를 제치고 GPT-4와 동점을 기록했습니다. 이 결과에 대해 Meta의 수석 과학자 LeCun은 매우 기뻐했으며 트윗을 통해 다음과 같이 말했습니다.

AI 모델이 내놓은 답변이 전혀 이해하기 어렵다면 감히 사용해 보시겠습니까? 기계 학습 시스템이 더 중요한 영역에서 사용됨에 따라 우리가 그 결과를 신뢰할 수 있는 이유와 신뢰할 수 없는 경우를 보여주는 것이 점점 더 중요해지고 있습니다. 복잡한 시스템의 출력에 대한 신뢰를 얻는 한 가지 가능한 방법은 시스템이 인간이나 다른 신뢰할 수 있는 시스템이 읽을 수 있는 출력 해석을 생성하도록 요구하는 것입니다. 즉, 가능한 오류가 발생할 수 있는 지점까지 완전히 이해할 수 있습니다. 설립하다. 예를 들어, 사법 시스템에 대한 신뢰를 구축하기 위해 우리는 법원이 자신의 결정을 설명하고 뒷받침하는 명확하고 읽기 쉬운 서면 의견을 제공하도록 요구합니다. 대규모 언어 모델의 경우 유사한 접근 방식을 채택할 수도 있습니다. 그러나 이 접근 방식을 사용할 때는 언어 모델이 다음을 생성하는지 확인하세요.

작성자丨컴파일: TimAnderson丨제작: Noah|51CTO Technology Stack(WeChat ID: blog51cto) Zed 편집기 프로젝트는 아직 출시 전 단계에 있으며 AGPL, GPL 및 Apache 라이선스에 따라 오픈 소스로 제공됩니다. 이 편집기는 고성능과 다양한 AI 지원 옵션을 제공하지만 현재는 Mac 플랫폼에서만 사용할 수 있습니다. Nathan Sobo는 게시물에서 GitHub의 Zed 프로젝트 코드 베이스에서 편집기 부분은 GPL에 따라 라이선스가 부여되고 서버 측 구성 요소는 AGPL에 따라 라이선스가 부여되며 GPUI(GPU Accelerated User) 인터페이스) 부분은 GPL에 따라 라이선스가 부여된다고 설명했습니다. Apache2.0 라이센스. GPUI는 Zed 팀에서 개발한 제품입니다.

볼륨이 미쳤고, 볼륨이 미쳤고, 큰 모델이 다시 변경되었습니다. 바로 지금, 세계에서 가장 강력한 AI 모델이 하룻밤 사이에 주인이 바뀌었고 GPT-4가 제단에서 뽑혔습니다. Anthropic은 최신 Claude3 시리즈 모델을 출시했습니다. 한 문장 리뷰: 정말 GPT-4를 압도합니다! 다중 모드 및 언어 능력 지표 측면에서 Claude3이 승리합니다. Anthropic의 말에 따르면 Claude3 시리즈 모델은 추론, 수학, 코딩, 다국어 이해 및 비전 분야에서 새로운 업계 기준을 설정했습니다! Anthropic은 서로 다른 보안 개념으로 인해 OpenAI에서 "탈퇴"한 직원들이 설립한 스타트업 회사입니다. 그들의 제품은 OpenAI에 반복적으로 큰 타격을 입혔습니다. 이번에는 클로드3도 큰 수술을 받았습니다.
