LLaMA-2-7B 수학 능력의 상한이 97.7%에 도달했다고요? Xwin-Math는 합성 데이터로 잠재력을 발휘합니다

PHPz
풀어 주다: 2024-03-15 12:07:23
앞으로
531명이 탐색했습니다.
합성 데이터는 대형 모델의 수학적 추론 잠재력을 계속해서 열어줍니다!

수학적 문제 해결 능력은 항상 언어 모델의 지능 수준을 나타내는 중요한 지표로 간주되어 왔습니다. 일반적으로 매우 큰 모델이나 광범위한 수학적 사전 학습을 거친 모델만이 수학적 문제를 잘 수행할 수 있는 기회를 갖습니다.

최근 Swin-Transformer 팀이 만들고 Xi'an Jiaotong University, 중국 과학 기술 대학교, Tsinghua University 및 Microsoft Research Asia의 학자들이 공동으로 완성한 Xwin 연구 작업은 이러한 인식을 뒤집고 다음과 같은 사실을 드러냈습니다. 일반적인 사전 학습을 통해 7B(즉, 70억 개의 매개변수) 규모의 언어 모델(LLaMA-2-7B)은 수학적 문제를 해결하는 데 강력한 잠재력을 보였으며 합성 데이터를 기반으로 감독된 미세 조정 방법을 사용하여 모델을 점점 더 많이 만들 수 있습니다. 효율적입니다. 수학적 능력을 꾸준히 자극합니다.

이 연구는 "Common 7B Language Models 이미 강력한 수학 기능을 보유하고 있습니다"라는 제목으로 arXiv에 게시되었습니다.

LLaMA-2-7B 수학 능력의 상한이 97.7%에 도달했다고요? Xwin-Math는 합성 데이터로 잠재력을 발휘합니다

  • 문서 링크: https://arxiv.org/pdf/2403.04706.pdf
  • 코드 링크: https://github.com/Xwin-LM/Xwin-LM

연구팀은 먼저 7.5K 데이터만 사용하여 LLaMA-2-7B 모델 지침을 미세 조정한 다음 GSM8K 및 MATH에서 모델의 성능을 평가했습니다. 실험 결과, 테스트 세트의 각 질문에 대해 생성된 256개의 답변 중에서 가장 좋은 답변을 선택할 때 테스트 정확도가 각각 97.7%, 72.0%까지 높은 것으로 나타났습니다. 이 결과는 일반적인 사전 훈련에서도 7B 수준임을 보여줍니다. 작은 모델이라도 고품질 답변을 생성할 수 있는 잠재력이 있다는 발견은 강력한 수학적 추론의 잠재력이 대규모 및 수학적으로 관련된 사전 훈련된 모델에만 국한되지 않는다는 이전 견해에 도전합니다.

LLaMA-2-7B 수학 능력의 상한이 97.7%에 도달했다고요? Xwin-Math는 합성 데이터로 잠재력을 발휘합니다

그러나 연구에서는 강력한 수학적 추론 잠재력에도 불구하고 현재 언어 모델의 주요 문제점은 고유한 수학적 능력을 지속적으로 자극하기 어렵다는 점을 지적합니다. 예를 들어, 이전 실험에서 질문당 하나의 생성된 답변만 고려한 경우 GSM8K 및 MATH 벤치마크의 정확도는 각각 49.5%와 7.9%로 떨어집니다. 이는 모델의 수학적 기능이 불안정하다는 것을 반영합니다. 연구팀은 이 문제를 해결하기 위해 SFT(Supervised Fine-Tuning) 데이터 세트를 확장하는 방법을 채택했으며, SFT 데이터가 증가함에 따라 정답 생성에 대한 모델의 신뢰도가 크게 향상되는 것을 확인했습니다.

연구에서는 합성 데이터를 사용하면 SFT 데이터 세트를 효과적으로 확대할 수 있으며 이 방법은 실제 데이터와 거의 비슷하다고 언급했습니다. 연구팀은 GPT-4 Turbo API를 사용해 합성 수학 문제와 문제 해결 프로세스를 생성하고, 프롬프트 단어에 대한 간단한 검증을 통해 문제의 품질을 보장했습니다. 이 방법을 통해 팀은 SFT 데이터 세트를 7.5K에서 약 100만 샘플로 성공적으로 확장하여 거의 완벽한 스케일링 법칙을 달성했습니다. 그 결과 Xwin-Math-7B 모델은 GSM8K와 MATH에서 각각 82.6%와 40.6%의 정확도를 달성하여 이전 SOTA 모델을 크게 능가하고 일부 70B 모델도 능가하여 비약적인 개선을 달성했습니다. Xwin-Math-70B 모델은 MATH 평가 세트에서 52.8%의 결과를 달성하여 GPT-4의 초기 버전을 크게 능가했습니다. LLaMA 시리즈 기본 모델을 기반으로 한 연구가 MATH에서 GPT-4를 능가한 것은 이번이 처음입니다.

LLaMA-2-7B 수학 능력의 상한이 97.7%에 도달했다고요? Xwin-Math는 합성 데이터로 잠재력을 발휘합니다

연구원들은 모델이 정답(모델의 잠재적인 수학적 능력을 나타냄)을 출력할 수 있는지 여부와 N 중 정답 비율을 평가하기 위해 Pass@N 및 PassRatio@N 평가 지표도 정의했습니다. 모델의 출력 규모(모델의 수학적 기능의 안정성을 나타냄) SFT 데이터의 양이 적을 때 모델의 Pass@256은 이미 매우 높습니다. SFT 데이터의 규모를 더 확장하면 모델의 Pass@256은 거의 증가하지 않지만 PassRatio@256은 크게 증가합니다. 이는 합성 데이터를 기반으로 한 감독 미세 조정이 모델의 수학적 기능의 안정성을 향상시키는 효과적인 방법임을 보여줍니다.

LLaMA-2-7B 수학 능력의 상한이 97.7%에 도달했다고요? Xwin-Math는 합성 데이터로 잠재력을 발휘합니다

또한 이 연구는 다양한 추론 복잡성 및 오류 유형에서 확장 동작에 대한 통찰력을 제공합니다. 예를 들어, SFT 데이터 세트의 크기가 증가함에 따라 수학적 문제를 해결하는 모델의 정확도는 추론 단계 수와 거듭제곱 관계를 따릅니다. 훈련 샘플에서 긴 추론 단계의 비율을 늘리면 어려운 문제를 해결하는 모델의 정확도가 크게 향상될 수 있습니다. 동시에, 연구에서는 계산 오류가 추론 오류보다 완화하기 쉽다는 사실도 발견했습니다.

LLaMA-2-7B 수학 능력의 상한이 97.7%에 도달했다고요? Xwin-Math는 합성 데이터로 잠재력을 발휘합니다

LLaMA-2-7B 수학 능력의 상한이 97.7%에 도달했다고요? Xwin-Math는 합성 데이터로 잠재력을 발휘합니다

모델의 수학적 추론 일반화 능력을 보여주는 헝가리 고등학교 수학 시험에서도 Xwin-Math가 65%를 기록해 GPT-4에 이어 2위를 기록했습니다. 이는 연구에서 데이터를 합성한 방식이 평가세트에 크게 과적합되지 않았으며 좋은 일반화 능력을 보여주었다는 것을 보여준다.

LLaMA-2-7B 수학 능력의 상한이 97.7%에 도달했다고요? Xwin-Math는 합성 데이터로 잠재력을 발휘합니다

LLaMA-2-7B 수학 능력의 상한이 97.7%에 도달했다고요? Xwin-Math는 합성 데이터로 잠재력을 발휘합니다

이 연구는 SFT 데이터 확장에 있어 합성 데이터의 효율성을 보여줄 뿐만 아니라 수학적 추론 능력에서 대규모 언어 모델 연구에 대한 새로운 관점을 제공합니다. 연구팀은 자신들의 작업이 이 분야의 미래 탐구와 발전을 위한 기반을 마련했다고 밝혔으며, 인공지능을 활용해 수학 문제 해결에서 더 큰 돌파구를 마련할 수 있기를 기대했습니다. 인공지능 기술이 지속적으로 발전함에 따라 AI가 수학 분야에서 더욱 뛰어난 성능을 발휘하고 인간이 복잡한 수학 문제를 해결하는 데 더 많은 도움을 제공할 것이라고 기대할 이유가 있습니다.

이 기사에는 절제 실험 결과와 데이터 합성 방법의 기타 평가 지표도 포함되어 있습니다. 자세한 내용은 전문을 참조하세요.

위 내용은 LLaMA-2-7B 수학 능력의 상한이 97.7%에 도달했다고요? Xwin-Math는 합성 데이터로 잠재력을 발휘합니다의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:jiqizhixin.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
최신 이슈
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿
회사 소개 부인 성명 Sitemap
PHP 중국어 웹사이트:공공복지 온라인 PHP 교육,PHP 학습자의 빠른 성장을 도와주세요!