기술 주변기기 일체 포함 LLaMA-2-7B 수학 능력의 상한이 97.7%에 도달했다고요? Xwin-Math는 합성 데이터로 잠재력을 발휘합니다

LLaMA-2-7B 수학 능력의 상한이 97.7%에 도달했다고요? Xwin-Math는 합성 데이터로 잠재력을 발휘합니다

Mar 15, 2024 pm 12:07 PM
프로젝트

합성 데이터는 대형 모델의 수학적 추론 잠재력을 계속해서 열어줍니다!

수학적 문제 해결 능력은 항상 언어 모델의 지능 수준을 나타내는 중요한 지표로 간주되어 왔습니다. 일반적으로 매우 큰 모델이나 광범위한 수학적 사전 학습을 거친 모델만이 수학적 문제를 잘 수행할 수 있는 기회를 갖습니다.

최근 Swin-Transformer 팀이 만들고 Xi'an Jiaotong University, 중국 과학 기술 대학교, Tsinghua University 및 Microsoft Research Asia의 학자들이 공동으로 완성한 Xwin 연구 작업은 이러한 인식을 뒤집고 다음과 같은 사실을 드러냈습니다. 일반적인 사전 학습을 통해 7B(즉, 70억 개의 매개변수) 규모의 언어 모델(LLaMA-2-7B)은 수학적 문제를 해결하는 데 강력한 잠재력을 보였으며 합성 데이터를 기반으로 감독된 미세 조정 방법을 사용하여 모델을 점점 더 많이 만들 수 있습니다. 효율적입니다. 수학적 능력을 꾸준히 자극합니다.

이 연구는 "Common 7B Language Models 이미 강력한 수학 기능을 보유하고 있습니다"라는 제목으로 arXiv에 게시되었습니다.

LLaMA-2-7B 수학 능력의 상한이 97.7%에 도달했다고요? Xwin-Math는 합성 데이터로 잠재력을 발휘합니다

  • 문서 링크: https://arxiv.org/pdf/2403.04706.pdf
  • 코드 링크: https://github.com/Xwin-LM/Xwin-LM

연구팀은 먼저 7.5K 데이터만 사용하여 LLaMA-2-7B 모델 지침을 미세 조정한 다음 GSM8K 및 MATH에서 모델의 성능을 평가했습니다. 실험 결과, 테스트 세트의 각 질문에 대해 생성된 256개의 답변 중에서 가장 좋은 답변을 선택할 때 테스트 정확도가 각각 97.7%, 72.0%까지 높은 것으로 나타났습니다. 이 결과는 일반적인 사전 훈련에서도 7B 수준임을 보여줍니다. 작은 모델이라도 고품질 답변을 생성할 수 있는 잠재력이 있다는 발견은 강력한 수학적 추론의 잠재력이 대규모 및 수학적으로 관련된 사전 훈련된 모델에만 국한되지 않는다는 이전 견해에 도전합니다.

LLaMA-2-7B 수학 능력의 상한이 97.7%에 도달했다고요? Xwin-Math는 합성 데이터로 잠재력을 발휘합니다

그러나 연구에서는 강력한 수학적 추론 잠재력에도 불구하고 현재 언어 모델의 주요 문제점은 고유한 수학적 능력을 지속적으로 자극하기 어렵다는 점을 지적합니다. 예를 들어, 이전 실험에서 질문당 하나의 생성된 답변만 고려한 경우 GSM8K 및 MATH 벤치마크의 정확도는 각각 49.5%와 7.9%로 떨어집니다. 이는 모델의 수학적 기능이 불안정하다는 것을 반영합니다. 연구팀은 이 문제를 해결하기 위해 SFT(Supervised Fine-Tuning) 데이터 세트를 확장하는 방법을 채택했으며, SFT 데이터가 증가함에 따라 정답 생성에 대한 모델의 신뢰도가 크게 향상되는 것을 확인했습니다.

연구에서는 합성 데이터를 사용하면 SFT 데이터 세트를 효과적으로 확대할 수 있으며 이 방법은 실제 데이터와 거의 비슷하다고 언급했습니다. 연구팀은 GPT-4 Turbo API를 사용해 합성 수학 문제와 문제 해결 프로세스를 생성하고, 프롬프트 단어에 대한 간단한 검증을 통해 문제의 품질을 보장했습니다. 이 방법을 통해 팀은 SFT 데이터 세트를 7.5K에서 약 100만 샘플로 성공적으로 확장하여 거의 완벽한 스케일링 법칙을 달성했습니다. 그 결과 Xwin-Math-7B 모델은 GSM8K와 MATH에서 각각 82.6%와 40.6%의 정확도를 달성하여 이전 SOTA 모델을 크게 능가하고 일부 70B 모델도 능가하여 비약적인 개선을 달성했습니다. Xwin-Math-70B 모델은 MATH 평가 세트에서 52.8%의 결과를 달성하여 GPT-4의 초기 버전을 크게 능가했습니다. LLaMA 시리즈 기본 모델을 기반으로 한 연구가 MATH에서 GPT-4를 능가한 것은 이번이 처음입니다.

LLaMA-2-7B 수학 능력의 상한이 97.7%에 도달했다고요? Xwin-Math는 합성 데이터로 잠재력을 발휘합니다

연구원들은 모델이 정답(모델의 잠재적인 수학적 능력을 나타냄)을 출력할 수 있는지 여부와 N 중 정답 비율을 평가하기 위해 Pass@N 및 PassRatio@N 평가 지표도 정의했습니다. 모델의 출력 규모(모델의 수학적 기능의 안정성을 나타냄) SFT 데이터의 양이 적을 때 모델의 Pass@256은 이미 매우 높습니다. SFT 데이터의 규모를 더 확장하면 모델의 Pass@256은 거의 증가하지 않지만 PassRatio@256은 크게 증가합니다. 이는 합성 데이터를 기반으로 한 감독 미세 조정이 모델의 수학적 기능의 안정성을 향상시키는 효과적인 방법임을 보여줍니다.

LLaMA-2-7B 수학 능력의 상한이 97.7%에 도달했다고요? Xwin-Math는 합성 데이터로 잠재력을 발휘합니다

또한 이 연구는 다양한 추론 복잡성 및 오류 유형에서 확장 동작에 대한 통찰력을 제공합니다. 예를 들어, SFT 데이터 세트의 크기가 증가함에 따라 수학적 문제를 해결하는 모델의 정확도는 추론 단계 수와 거듭제곱 관계를 따릅니다. 훈련 샘플에서 긴 추론 단계의 비율을 늘리면 어려운 문제를 해결하는 모델의 정확도가 크게 향상될 수 있습니다. 동시에, 연구에서는 계산 오류가 추론 오류보다 완화하기 쉽다는 사실도 발견했습니다.

LLaMA-2-7B 수학 능력의 상한이 97.7%에 도달했다고요? Xwin-Math는 합성 데이터로 잠재력을 발휘합니다

LLaMA-2-7B 수학 능력의 상한이 97.7%에 도달했다고요? Xwin-Math는 합성 데이터로 잠재력을 발휘합니다

모델의 수학적 추론 일반화 능력을 보여주는 헝가리 고등학교 수학 시험에서도 Xwin-Math가 65%를 기록해 GPT-4에 이어 2위를 기록했습니다. 이는 연구에서 데이터를 합성한 방식이 평가세트에 크게 과적합되지 않았으며 좋은 일반화 능력을 보여주었다는 것을 보여준다.

LLaMA-2-7B 수학 능력의 상한이 97.7%에 도달했다고요? Xwin-Math는 합성 데이터로 잠재력을 발휘합니다

LLaMA-2-7B 수학 능력의 상한이 97.7%에 도달했다고요? Xwin-Math는 합성 데이터로 잠재력을 발휘합니다

이 연구는 SFT 데이터 확장에 있어 합성 데이터의 효율성을 보여줄 뿐만 아니라 수학적 추론 능력에서 대규모 언어 모델 연구에 대한 새로운 관점을 제공합니다. 연구팀은 자신들의 작업이 이 분야의 미래 탐구와 발전을 위한 기반을 마련했다고 밝혔으며, 인공지능을 활용해 수학 문제 해결에서 더 큰 돌파구를 마련할 수 있기를 기대했습니다. 인공지능 기술이 지속적으로 발전함에 따라 AI가 수학 분야에서 더욱 뛰어난 성능을 발휘하고 인간이 복잡한 수학 문제를 해결하는 데 더 많은 도움을 제공할 것이라고 기대할 이유가 있습니다.

이 기사에는 절제 실험 결과와 데이터 합성 방법의 기타 평가 지표도 포함되어 있습니다. 자세한 내용은 전문을 참조하세요.

위 내용은 LLaMA-2-7B 수학 능력의 상한이 97.7%에 도달했다고요? Xwin-Math는 합성 데이터로 잠재력을 발휘합니다의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 '토큰 수준'입니다. RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 '토큰 수준'입니다. Jun 24, 2024 pm 03:04 PM

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 인공 지능 개발 과정에서 LLM(대형 언어 모델)의 제어 및 안내는 항상 핵심 과제 중 하나였으며 이러한 모델이 두 가지 모두를 보장하는 것을 목표로 했습니다. 강력하고 안전하게 인간 사회에 봉사합니다. 인간 피드백(RL)을 통한 강화 학습 방법에 초점을 맞춘 초기 노력

ControlNet의 저자가 또 다른 히트를 쳤습니다! 이틀 만에 14,000개의 별을 획득하여 그림에서 그림을 생성하는 전체 과정 ControlNet의 저자가 또 다른 히트를 쳤습니다! 이틀 만에 14,000개의 별을 획득하여 그림에서 그림을 생성하는 전체 과정 Jul 17, 2024 am 01:56 AM

역시 Tusheng 영상이지만 PaintsUndo는 다른 경로를 택했습니다. ControlNet 작성자 LvminZhang이 다시 살기 시작했습니다! 이번에는 회화 분야를 목표로 삼고 있습니다. 새로운 프로젝트인 PaintsUndo는 출시된 지 얼마 되지 않아 1.4kstar(여전히 상승세)를 받았습니다. 프로젝트 주소: https://github.com/lllyasviel/Paints-UNDO 이 프로젝트를 통해 사용자는 정적 이미지를 입력하고 PaintsUndo는 자동으로 라인 초안부터 완성품 따라가기까지 전체 페인팅 과정의 비디오를 생성하도록 도와줍니다. . 그리는 과정에서 선의 변화가 놀랍습니다. 최종 영상 결과는 원본 이미지와 매우 유사합니다. 완성된 그림을 살펴보겠습니다.

오픈 소스 AI 소프트웨어 엔지니어 목록의 1위인 UIUC의 에이전트 없는 솔루션은 SWE 벤치의 실제 프로그래밍 문제를 쉽게 해결합니다. 오픈 소스 AI 소프트웨어 엔지니어 목록의 1위인 UIUC의 에이전트 없는 솔루션은 SWE 벤치의 실제 프로그래밍 문제를 쉽게 해결합니다. Jul 17, 2024 pm 10:02 PM

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 이 논문의 저자는 모두 일리노이 대학교 Urbana-Champaign(UIUC)의 Zhang Lingming 교사 팀 출신입니다. Steven Code Repair, 박사 4년차, 연구원

OpenAI Super Alignment Team의 사후 작업: 두 개의 대형 모델이 게임을 하고 출력이 더 이해하기 쉬워졌습니다. OpenAI Super Alignment Team의 사후 작업: 두 개의 대형 모델이 게임을 하고 출력이 더 이해하기 쉬워졌습니다. Jul 19, 2024 am 01:29 AM

AI 모델이 내놓은 답변이 전혀 이해하기 어렵다면 감히 사용해 보시겠습니까? 기계 학습 시스템이 더 중요한 영역에서 사용됨에 따라 우리가 그 결과를 신뢰할 수 있는 이유와 신뢰할 수 없는 경우를 보여주는 것이 점점 더 중요해지고 있습니다. 복잡한 시스템의 출력에 대한 신뢰를 얻는 한 가지 가능한 방법은 시스템이 인간이나 다른 신뢰할 수 있는 시스템이 읽을 수 있는 출력 해석을 생성하도록 요구하는 것입니다. 즉, 가능한 오류가 발생할 수 있는 지점까지 완전히 이해할 수 있습니다. 설립하다. 예를 들어, 사법 시스템에 대한 신뢰를 구축하기 위해 우리는 법원이 자신의 결정을 설명하고 뒷받침하는 명확하고 읽기 쉬운 서면 의견을 제공하도록 요구합니다. 대규모 언어 모델의 경우 유사한 접근 방식을 채택할 수도 있습니다. 그러나 이 접근 방식을 사용할 때는 언어 모델이 다음을 생성하는지 확인하세요.

무제한 비디오 생성, 계획 및 의사결정, 다음 토큰 예측의 확산 강제 통합 및 전체 시퀀스 확산 무제한 비디오 생성, 계획 및 의사결정, 다음 토큰 예측의 확산 강제 통합 및 전체 시퀀스 확산 Jul 23, 2024 pm 02:05 PM

현재 차세대 토큰 예측 패러다임을 사용하는 자동회귀 대규모 언어 모델은 전 세계적으로 인기를 얻고 있으며 동시에 인터넷의 수많은 합성 이미지와 비디오는 이미 확산 모델의 힘을 보여주었습니다. 최근 MITCSAIL 연구팀(그 중 한 명은 MIT 박사 과정 학생인 Chen Boyyuan)이 전체 시퀀스 확산 모델과 차세대 토큰 모델의 강력한 기능을 성공적으로 통합하고 훈련 및 샘플링 패러다임인 확산 강제(DF)를 제안했습니다. ). 논문 제목: DiffusionForcing:Next-tokenPredictionMeetsFull-SequenceDiffusion 논문 주소: https:/

리만 가설의 중요한 돌파구! 타오저쉬안(Tao Zhexuan)은 MIT와 옥스퍼드의 새로운 논문을 적극 추천했으며, 37세의 필즈상 수상자도 참여했다. 리만 가설의 중요한 돌파구! 타오저쉬안(Tao Zhexuan)은 MIT와 옥스퍼드의 새로운 논문을 적극 추천했으며, 37세의 필즈상 수상자도 참여했다. Aug 05, 2024 pm 03:32 PM

최근 새천년 7대 과제 중 하나로 알려진 리만 가설이 새로운 돌파구를 마련했다. 리만 가설은 소수 분포의 정확한 특성과 관련된 수학에서 매우 중요한 미해결 문제입니다(소수는 1과 자기 자신으로만 나눌 수 있는 숫자이며 정수 이론에서 근본적인 역할을 합니다). 오늘날의 수학 문헌에는 리만 가설(또는 일반화된 형식)의 확립에 기초한 수학적 명제가 천 개가 넘습니다. 즉, 리만 가설과 그 일반화된 형식이 입증되면 천 개가 넘는 명제가 정리로 확립되어 수학 분야에 지대한 영향을 미칠 것이며, 리만 가설이 틀린 것으로 입증된다면, 이러한 제안의 일부도 그 효과를 잃을 것입니다. MIT 수학 교수 Larry Guth와 Oxford University의 새로운 돌파구

arXiv 논문은 '연발'로 게시될 수 있습니다. Stanford alphaXiv 토론 플랫폼은 온라인이며 LeCun은 이를 좋아합니다. arXiv 논문은 '연발'로 게시될 수 있습니다. Stanford alphaXiv 토론 플랫폼은 온라인이며 LeCun은 이를 좋아합니다. Aug 01, 2024 pm 05:18 PM

건배! 종이 토론이 말로만 진행된다면 어떤가요? 최근 스탠포드 대학교 학생들은 arXiv 논문에 대한 질문과 의견을 직접 게시할 수 있는 arXiv 논문에 대한 공개 토론 포럼인 alphaXiv를 만들었습니다. 웹사이트 링크: https://alphaxiv.org/ 실제로 이 웹사이트를 특별히 방문할 필요는 없습니다. URL에서 arXiv를 alphaXiv로 변경하면 alphaXiv 포럼에서 해당 논문을 바로 열 수 있습니다. 논문, 문장: 오른쪽 토론 영역에서 사용자는 저자에게 논문의 아이디어와 세부 사항에 대해 질문하는 질문을 게시할 수 있습니다. 예를 들어 다음과 같이 논문 내용에 대해 의견을 제시할 수도 있습니다.

Axiom 교육을 통해 LLM은 인과 추론을 학습할 수 있습니다. 6,700만 개의 매개변수 모델은 1조 매개변수 수준 GPT-4와 비슷합니다. Axiom 교육을 통해 LLM은 인과 추론을 학습할 수 있습니다. 6,700만 개의 매개변수 모델은 1조 매개변수 수준 GPT-4와 비슷합니다. Jul 17, 2024 am 10:14 AM

LLM에 인과관계 사슬을 보여주면 공리를 학습합니다. AI는 이미 수학자 및 과학자의 연구 수행을 돕고 있습니다. 예를 들어, 유명한 수학자 Terence Tao는 GPT와 같은 AI 도구의 도움을 받아 자신의 연구 및 탐색 경험을 반복적으로 공유했습니다. AI가 이러한 분야에서 경쟁하려면 강력하고 신뢰할 수 있는 인과관계 추론 능력이 필수적입니다. 본 논문에서 소개할 연구에서는 작은 그래프의 인과 전이성 공리 시연을 위해 훈련된 Transformer 모델이 큰 그래프의 전이 공리로 일반화될 수 있음을 발견했습니다. 즉, Transformer가 단순한 인과 추론을 수행하는 방법을 학습하면 보다 복잡한 인과 추론에 사용될 수 있습니다. 팀이 제안하는 공리적 훈련 프레임워크는 시연만으로 패시브 데이터를 기반으로 인과 추론을 학습하는 새로운 패러다임입니다.

See all articles