기술 주변기기 일체 포함 '알파카'를 단계별로 자르는 방법을 가르치고 Chen Danqi 팀은 LLM-Shearing 대형 모델 가지치기 방법을 제안했습니다.

'알파카'를 단계별로 자르는 방법을 가르치고 Chen Danqi 팀은 LLM-Shearing 대형 모델 가지치기 방법을 제안했습니다.

Oct 12, 2023 pm 06:29 PM
프로젝트 대형 모델 가지치기 llm-shearing

라마2 모델의 알파카 털을 자르면 어떤 효과가 있을까요? 오늘 프린스턴 대학의 Chen Danqi 팀은 적은 계산과 비용으로 같은 크기의 모델보다 더 나은 성능을 얻을 수 있는 LLM-Shearing이라는 대형 모델 가지치기 방법을 제안했습니다.


대형 언어 모델(LLM)이 등장한 이후 다양한 자연어 작업에서 놀라운 결과를 얻었습니다. 그러나 대규모 언어 모델을 훈련하려면 막대한 컴퓨팅 리소스가 필요합니다. 결과적으로, 효율적인 추론과 미세 조정을 가능하게 하는 LLaMA, MPT 및 Falcon의 등장으로 업계에서는 동등하게 강력한 중간 규모 모델을 구축하는 데 점점 더 관심을 기울이고 있습니다.

이러한 다양한 크기의 LLM은 다양한 사용 사례에 적합하지만 각 개별 모델을 처음부터 훈련하려면(10억 개의 매개변수가 있는 작은 모델이라도) 여전히 많은 컴퓨팅 리소스가 필요하며 이는 대부분의 과학 연구에서 여전히 어렵습니다. 기관은 큰 부담이다.

그래서 이 논문에서 Princeton University의 Chen Danqi 팀은 다음 문제를 해결하려고 시도합니다. 기존의 사전 훈련된 LLM을 사용하여 처음부터 훈련하면서 더 작고 범용적이며 성능 경쟁력이 있는 LLM을 구축할 수 있습니까? 훨씬 적은 계산이 필요합니까?

연구원들은 목표 달성을 위해 구조화된 가지치기 사용을 탐구합니다. 여기서 문제는 범용 LLM의 경우 정리된 모델의 성능 저하가 발생한다는 것입니다. 특히 정리 후 상당한 계산 투자가 없는 경우 더욱 그렇습니다. 그들이 사용한 효율적인 가지치기 방법은 더 작지만 여전히 성능 경쟁력이 있는 LLM을 개발하는 데 사용될 수 있으며 훈련에는 처음부터 훈련하는 것보다 훨씬 적은 계산 노력이 필요합니다.

알파카를 단계별로 자르는 방법을 가르치고 Chen Danqi 팀은 LLM-Shearing 대형 모델 가지치기 방법을 제안했습니다.

  • 문서 주소: https://arxiv.org/abs/2310.06694
  • 코드 주소: https://github.com/princeton-nlp/LLM-Shearing
  • ModelsSheared-LLaMA -1.3B, Sheared-LLaMA-2.7B

연구원들은 LLM을 제거하기 전에 두 가지 주요 기술적 과제를 식별했습니다. 하나는 강력한 성능과 효율적인 추론을 통해 최종 가지치기 구조를 결정하는 방법입니다. LLM의 현재 구조화된 가지치기 기술에는 지정된 대상 구조가 없으므로 가지치기된 모델의 성능과 추론 속도가 만족스럽지 않습니다. 둘째, 예상되는 성능을 달성하기 위해 가지치기된 모델을 계속 사전 훈련하는 방법은 무엇입니까? 그들은 원시 사전 훈련 데이터를 사용한 훈련이 모델을 처음부터 훈련하는 것과 비교하여 도메인 전반에 걸쳐 서로 다른 손실 감소를 가져오는 것을 관찰했습니다.

이 두 가지 문제를 해결하기 위해 연구원들은 "LLM - 전단" 알고리즘을 제안했습니다. "지향적 구조화 가지치기"라고 불리는 이 새로운 가지치기 알고리즘은 기존 사전 훈련된 모델의 구성에 따라 결정되는 지정된 대상 아키텍처로 소스 모델을 가지치기합니다. 그들은 가지치기 방법이 소스 모델에서 하위 구조를 검색하고 자원 제약 하에서 성능을 최대화한다는 것을 보여줍니다. 또한 손실 감소율에 따라 각 도메인의 훈련 데이터를 비례적으로 로드할 수 있는 동적 배치 로딩 알고리즘을 설계하여 데이터를 효율적으로 활용하고 전반적인 성능 향상을 가속화합니다.

마지막으로 연구원은 LLaMA2-7B 모델을 두 개의 작은 LLM, 즉 Sheared-LLaMA-1.3B와 Sheared-LLaMA-2.7B로 잘라내어 방법의 효율성을 확인했습니다.

알파카를 단계별로 자르는 방법을 가르치고 Chen Danqi 팀은 LLM-Shearing 대형 모델 가지치기 방법을 제안했습니다.

가지치기 및 지속적인 사전 훈련에는 500억 개의 토큰(즉, OpenLLaMA 사전 훈련 예산의 5%)만 사용했지만 11가지 대표적인 다운스트림 작업(예: 일반 지식, 독해 및 세계 지식)과 open 수식 생성 명령을 조정하더라도 이 두 모델의 성능은 Pythia, INCITE 및 OpenLLaMA를 포함하여 동일한 크기의 다른 인기 있는 LLM보다 여전히 뛰어납니다.

알파카를 단계별로 자르는 방법을 가르치고 Chen Danqi 팀은 LLM-Shearing 대형 모델 가지치기 방법을 제안했습니다.

하지만 이 논문이 Sheared-LLaMA-3B를 발표했을 때 가장 강력한 3B 오픈 소스 모델의 기록이 StableLM-3B에 의해 깨졌다는 점을 언급해야 합니다.

알파카를 단계별로 자르는 방법을 가르치고 Chen Danqi 팀은 LLM-Shearing 대형 모델 가지치기 방법을 제안했습니다.

또한, 다운스트림 작업 성능 궤적은 정리된 모델을 추가로 교육하기 위해 더 많은 토큰을 사용하면 더 큰 이점을 가져올 수 있음을 나타냅니다. 연구원들은 최대 70억 개의 매개변수까지만 모델을 실험했지만 LLM 전단은 매우 일반적이며 향후 작업에서 모든 규모의 대규모 언어 모델로 확장될 수 있습니다.

방법 소개

기존 대형 모델 M_S(소스 모델)를 고려하여 더 작고 강한 모델 M_T(대상 모델)를 효과적으로 생성하는 방법을 연구하는 것이 이 글의 목표입니다. 연구에서는 이를 완료하려면 두 단계가 필요하다고 생각합니다.

  • 첫 번째 단계에서는 M_S를 M_T로 정리합니다. 이렇게 하면 매개변수 수가 줄어들지만 필연적으로 성능 저하가 발생합니다.
  • 두 번째 단계는 지속적으로 사전 학습됩니다. M_T는 성능을 더욱 강하게 만듭니다.

구조적 가지치기

구조적 가지치기는 모델의 많은 매개변수를 제거할 수 있어 모델을 압축하고 추론을 가속화하는 효과를 얻을 수 있습니다. 그러나 기존의 구조화된 가지치기 방법으로 인해 모델이 기존 아키텍처의 구성에서 벗어날 수 있습니다. 예를 들어 CoFiPruning 방법은 균일하지 않은 레이어 구성으로 모델을 생성하므로 표준 통합 레이어 구성에 비해 추가 추론 오버헤드가 발생합니다.

이 기사는 CoFiPruning을 확장하여 소스 모델을 지정된 대상 구성으로 정리할 수 있도록 합니다. 예를 들어 이 기사에서는 2.7B 모델을 생성할 때 INCITE-Base-3B 아키텍처를 대상 구조로 사용합니다.

또한 이 기사에서는 다양한 세분성의 모델 매개변수에 대한 일련의 가지치기 마스크(가지치기 마스크)를 학습합니다. 마스크 변수는 다음과 같습니다.

알파카를 단계별로 자르는 방법을 가르치고 Chen Danqi 팀은 LLM-Shearing 대형 모델 가지치기 방법을 제안했습니다.

각 마스크 변수는 가지치기 또는 관련 하위 구조를 제어합니다. 보존됩니다. 예를 들어 해당 z^layer= 0인 경우 이 레이어를 삭제해야 합니다. 아래 그림 2는 가지치기 마스크가 어떤 구조를 잘라낼지 제어하는 ​​방법을 보여줍니다.

알파카를 단계별로 자르는 방법을 가르치고 Chen Danqi 팀은 LLM-Shearing 대형 모델 가지치기 방법을 제안했습니다.

가지치기 후에는 각 하위 구조의 마스크 변수와 관련된 최고 점수 구성 요소를 유지하여 가지치기된 아키텍처를 마무리하고 언어 모델링 목표를 사용하여 가지치기된 모델을 계속해서 사전 가지치기합니다.

동적 배치 로딩

이 연구는 모델 성능을 복원하기 위해서는 정리된 모델의 광범위한 사전 학습이 필요하다고 믿습니다.

다른 연구에서 영감을 받아 본 논문에서는 모델 성능에 따라 도메인 규모를 동적으로 간단히 조정할 수 있는 보다 효율적인 알고리즘인 동적 배치 로딩을 제안합니다. 알고리즘은 다음과 같습니다.

알파카를 단계별로 자르는 방법을 가르치고 Chen Danqi 팀은 LLM-Shearing 대형 모델 가지치기 방법을 제안했습니다.

실험 및 결과

모델 구성: 이 기사에서는 LLaMA2-7B 모델을 소스 모델로 사용한 후 구조화된 가지치기 실험을 LLaMA2-7B로 압축했습니다. 두 개의 작은 목표 크기는 2.7B 및 1.3B 매개 변수이며 전단 모델의 성능은 OPT-1.3B, Pythia-1.4B, OPT-2.7B, Pythia-2.8을 포함한 동일한 크기의 모델과 비교됩니다. B, INCITE-베이스 -3B, OpenLLaMA-3B-v1, OpenLLaMA-3B-v2. 표 8에는 이러한 모든 모델에 대한 모델 아키텍처 세부 정보가 요약되어 있습니다.

알파카를 단계별로 자르는 방법을 가르치고 Chen Danqi 팀은 LLM-Shearing 대형 모델 가지치기 방법을 제안했습니다.

데이터: LLaMA2의 교육 데이터는 공개적으로 액세스할 수 없으므로 이 기사에서는 RedPajama 데이터 세트를 사용합니다. 표 1은 모델과 기준 모델에서 사용되는 사전 훈련 데이터를 제공합니다.

알파카를 단계별로 자르는 방법을 가르치고 Chen Danqi 팀은 LLM-Shearing 대형 모델 가지치기 방법을 제안했습니다.

교육: 연구원들은 모든 실험에서 최대 16개의 Nvidia A100 GPU(80GB)를 사용했습니다.

SHEARED-LLAMA는 비슷한 크기의 LM보다 성능이 뛰어납니다.

이 문서에서는 Sheared-LLaMA가 비슷한 크기의 기존 LLM보다 훨씬 더 성능이 뛰어나며 이러한 모델을 처음부터 훈련하는 데 계산 예산의 일부만 사용한다는 것을 보여줍니다.

다운스트림 작업: 표 2는 다운스트림 작업에서 Sheared-LLaMA와 비슷한 크기의 기존 사전 훈련된 모델의 제로샷 및 소수샷 성능을 보여줍니다.

알파카를 단계별로 자르는 방법을 가르치고 Chen Danqi 팀은 LLM-Shearing 대형 모델 가지치기 방법을 제안했습니다.

명령 조정: 그림 3에 표시된 것처럼 명령 조정된 Sheared-LLaMA는 동일한 규모의 다른 모든 사전 훈련된 모델에 비해 더 높은 승률을 달성합니다.

알파카를 단계별로 자르는 방법을 가르치고 Chen Danqi 팀은 LLM-Shearing 대형 모델 가지치기 방법을 제안했습니다.

그림 4는 INCITEBase-3B 모델이 훨씬 더 높은 정확도로 시작하지만 진행 중인 사전 훈련 과정에서 성능 수준이 떨어지는 것을 보여줍니다.

알파카를 단계별로 자르는 방법을 가르치고 Chen Danqi 팀은 LLM-Shearing 대형 모델 가지치기 방법을 제안했습니다.

Analytics

마지막으로 연구원은 이 방법의 장점을 분석했습니다.

동적 배치 로딩의 효율성

이 중 연구자들은 동적 배치 로딩의 효율성을 다음 세 가지 측면에서 분석합니다. (1) 도메인 간 최종 LM 손실, (2) 데이터 사용량 훈련 과정 전반에 걸쳐 각 도메인, (3) 다운스트림 작업 성능. 결과는 Sheared-LaMA-1.3B 알고리즘을 기반으로 합니다.

도메인 간 손실 차이. 동적 배치 로딩의 목적은 손실이 거의 동시에 기준 값에 도달하도록 각 도메인의 손실 감소율의 균형을 맞추는 것입니다. 모델 손실(원래 배치 로딩과 동적 배치 로딩)과 참조 손실의 차이는 그림 5에 표시되어 있습니다. 반면 동적 배치 로딩은 손실을 고르게 줄이고 도메인 간 손실 차이도 매우 유사하여 다음을 알 수 있습니다. 데이터를 보다 효율적으로 사용합니다.

알파카를 단계별로 자르는 방법을 가르치고 Chen Danqi 팀은 LLM-Shearing 대형 모델 가지치기 방법을 제안했습니다.

데이터 사용량. 표 3은 RedPajama의 원시 데이터 비율과 동적으로 로드된 도메인 데이터 사용량을 비교합니다(그림 7은 훈련 프로세스 전반에 걸쳐 도메인 가중치의 변화를 보여줍니다). 동적 대량 로드는 다른 도메인에 비해 Book 및 C4 도메인의 가중치를 증가시키며, 이는 이러한 도메인이 정리된 모델에서 복구하기가 더 어렵다는 것을 나타냅니다.

알파카를 단계별로 자르는 방법을 가르치고 Chen Danqi 팀은 LLM-Shearing 대형 모델 가지치기 방법을 제안했습니다.

다운스트림 성능. 그림 6에서 볼 수 있듯이 동적 배치 로딩을 사용하여 훈련된 가지치기 모델은 원래 RedPajama 분포에서 훈련된 모델에 비해 더 나은 다운스트림 성능을 달성했습니다. 이는 동적 배치 로딩으로 인한 보다 균형 잡힌 손실 감소가 다운스트림 성능을 향상시킬 수 있음을 시사합니다.

알파카를 단계별로 자르는 방법을 가르치고 Chen Danqi 팀은 LLM-Shearing 대형 모델 가지치기 방법을 제안했습니다.

다른 가지치기 방법과의 비교

또한 연구원들은 LLM 전단 방법을 다른 가지치기 방법과 비교하고 전체 모델 능력의 척도인 검증 당혹성을 강력한 지표로 보고했습니다.

계산상의 한계로 인해 다음 실험은 각 방법을 끝까지 실행하는 대신 비교된 모든 방법의 총 계산 예산을 제어합니다.

표 4에서 볼 수 있듯이 동일한 희소성 하에서 본 기사의 대상 가지치기 모델의 추론 처리량은 비균일 가지치기 CoFiPruning 모델보다 높지만 perplexity는 약간 더 높습니다.

알파카를 단계별로 자르는 방법을 가르치고 Chen Danqi 팀은 LLM-Shearing 대형 모델 가지치기 방법을 제안했습니다.

기타 분석

표 5는 프루닝 오버헤드를 늘리면 총 토큰 양을 제어하면서 혼란을 지속적으로 개선할 수 있음을 보여줍니다. 그러나 가지치기는 지속적인 사전 훈련보다 비용이 많이 들기 때문에 연구자들은 가지치기에 0.4B 토큰을 할당합니다.

알파카를 단계별로 자르는 방법을 가르치고 Chen Danqi 팀은 LLM-Shearing 대형 모델 가지치기 방법을 제안했습니다.

자세한 연구 내용은 원문을 참고해주세요.

위 내용은 '알파카'를 단계별로 자르는 방법을 가르치고 Chen Danqi 팀은 LLM-Shearing 대형 모델 가지치기 방법을 제안했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

인기 기사

R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 최고의 그래픽 설정
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 아무도들을 수없는 경우 오디오를 수정하는 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25 : Myrise에서 모든 것을 잠금 해제하는 방법
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

ControlNet의 저자가 또 다른 히트를 쳤습니다! 이틀 만에 14,000개의 별을 획득하여 그림에서 그림을 생성하는 전체 과정 ControlNet의 저자가 또 다른 히트를 쳤습니다! 이틀 만에 14,000개의 별을 획득하여 그림에서 그림을 생성하는 전체 과정 Jul 17, 2024 am 01:56 AM

역시 Tusheng 영상이지만 PaintsUndo는 다른 경로를 택했습니다. ControlNet 작성자 LvminZhang이 다시 살기 시작했습니다! 이번에는 회화 분야를 목표로 삼고 있습니다. 새로운 프로젝트인 PaintsUndo는 출시된 지 얼마 되지 않아 1.4kstar(여전히 상승세)를 받았습니다. 프로젝트 주소: https://github.com/lllyasviel/Paints-UNDO 이 프로젝트를 통해 사용자는 정적 이미지를 입력하고 PaintsUndo는 자동으로 라인 초안부터 완성품 따라가기까지 전체 페인팅 과정의 비디오를 생성하도록 도와줍니다. . 그리는 과정에서 선의 변화가 놀랍습니다. 최종 영상 결과는 원본 이미지와 매우 유사합니다. 완성된 그림을 살펴보겠습니다.

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 '토큰 수준'입니다. RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 '토큰 수준'입니다. Jun 24, 2024 pm 03:04 PM

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 인공 지능 개발 과정에서 LLM(대형 언어 모델)의 제어 및 안내는 항상 핵심 과제 중 하나였으며 이러한 모델이 두 가지 모두를 보장하는 것을 목표로 했습니다. 강력하고 안전하게 인간 사회에 봉사합니다. 인간 피드백(RL)을 통한 강화 학습 방법에 초점을 맞춘 초기 노력

오픈 소스 AI 소프트웨어 엔지니어 목록의 1위인 UIUC의 에이전트 없는 솔루션은 SWE 벤치의 실제 프로그래밍 문제를 쉽게 해결합니다. 오픈 소스 AI 소프트웨어 엔지니어 목록의 1위인 UIUC의 에이전트 없는 솔루션은 SWE 벤치의 실제 프로그래밍 문제를 쉽게 해결합니다. Jul 17, 2024 pm 10:02 PM

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 이 논문의 저자는 모두 일리노이 대학교 Urbana-Champaign(UIUC)의 Zhang Lingming 교사 팀 출신입니다. Steven Code Repair, 박사 4년차, 연구원

OpenAI Super Alignment Team의 사후 작업: 두 개의 대형 모델이 게임을 하고 출력이 더 이해하기 쉬워졌습니다. OpenAI Super Alignment Team의 사후 작업: 두 개의 대형 모델이 게임을 하고 출력이 더 이해하기 쉬워졌습니다. Jul 19, 2024 am 01:29 AM

AI 모델이 내놓은 답변이 전혀 이해하기 어렵다면 감히 사용해 보시겠습니까? 기계 학습 시스템이 더 중요한 영역에서 사용됨에 따라 우리가 그 결과를 신뢰할 수 있는 이유와 신뢰할 수 없는 경우를 보여주는 것이 점점 더 중요해지고 있습니다. 복잡한 시스템의 출력에 대한 신뢰를 얻는 한 가지 가능한 방법은 시스템이 인간이나 다른 신뢰할 수 있는 시스템이 읽을 수 있는 출력 해석을 생성하도록 요구하는 것입니다. 즉, 가능한 오류가 발생할 수 있는 지점까지 완전히 이해할 수 있습니다. 설립하다. 예를 들어, 사법 시스템에 대한 신뢰를 구축하기 위해 우리는 법원이 자신의 결정을 설명하고 뒷받침하는 명확하고 읽기 쉬운 서면 의견을 제공하도록 요구합니다. 대규모 언어 모델의 경우 유사한 접근 방식을 채택할 수도 있습니다. 그러나 이 접근 방식을 사용할 때는 언어 모델이 다음을 생성하는지 확인하세요.

Axiom 교육을 통해 LLM은 인과 추론을 학습할 수 있습니다. 6,700만 개의 매개변수 모델은 1조 매개변수 수준 GPT-4와 비슷합니다. Axiom 교육을 통해 LLM은 인과 추론을 학습할 수 있습니다. 6,700만 개의 매개변수 모델은 1조 매개변수 수준 GPT-4와 비슷합니다. Jul 17, 2024 am 10:14 AM

LLM에 인과관계 사슬을 보여주면 공리를 학습합니다. AI는 이미 수학자 및 과학자의 연구 수행을 돕고 있습니다. 예를 들어, 유명한 수학자 Terence Tao는 GPT와 같은 AI 도구의 도움을 받아 자신의 연구 및 탐색 경험을 반복적으로 공유했습니다. AI가 이러한 분야에서 경쟁하려면 강력하고 신뢰할 수 있는 인과관계 추론 능력이 필수적입니다. 본 논문에서 소개할 연구에서는 작은 그래프의 인과 전이성 공리 시연을 위해 훈련된 Transformer 모델이 큰 그래프의 전이 공리로 일반화될 수 있음을 발견했습니다. 즉, Transformer가 단순한 인과 추론을 수행하는 방법을 학습하면 보다 복잡한 인과 추론에 사용될 수 있습니다. 팀이 제안하는 공리적 훈련 프레임워크는 시연만으로 패시브 데이터를 기반으로 인과 추론을 학습하는 새로운 패러다임입니다.

arXiv 논문은 '연발'로 게시될 수 있습니다. Stanford alphaXiv 토론 플랫폼은 온라인이며 LeCun은 이를 좋아합니다. arXiv 논문은 '연발'로 게시될 수 있습니다. Stanford alphaXiv 토론 플랫폼은 온라인이며 LeCun은 이를 좋아합니다. Aug 01, 2024 pm 05:18 PM

건배! 종이 토론이 말로만 진행된다면 어떤가요? 최근 스탠포드 대학교 학생들은 arXiv 논문에 대한 질문과 의견을 직접 게시할 수 있는 arXiv 논문에 대한 공개 토론 포럼인 alphaXiv를 만들었습니다. 웹사이트 링크: https://alphaxiv.org/ 실제로 이 웹사이트를 특별히 방문할 필요는 없습니다. URL에서 arXiv를 alphaXiv로 변경하면 alphaXiv 포럼에서 해당 논문을 바로 열 수 있습니다. 논문, 문장: 오른쪽 토론 영역에서 사용자는 저자에게 논문의 아이디어와 세부 사항에 대해 질문하는 질문을 게시할 수 있습니다. 예를 들어 다음과 같이 논문 내용에 대해 의견을 제시할 수도 있습니다.

리만 가설의 중요한 돌파구! 타오저쉬안(Tao Zhexuan)은 MIT와 옥스퍼드의 새로운 논문을 적극 추천했으며, 37세의 필즈상 수상자도 참여했다. 리만 가설의 중요한 돌파구! 타오저쉬안(Tao Zhexuan)은 MIT와 옥스퍼드의 새로운 논문을 적극 추천했으며, 37세의 필즈상 수상자도 참여했다. Aug 05, 2024 pm 03:32 PM

최근 새천년 7대 과제 중 하나로 알려진 리만 가설이 새로운 돌파구를 마련했다. 리만 가설은 소수 분포의 정확한 특성과 관련된 수학에서 매우 중요한 미해결 문제입니다(소수는 1과 자기 자신으로만 나눌 수 있는 숫자이며 정수 이론에서 근본적인 역할을 합니다). 오늘날의 수학 문헌에는 리만 가설(또는 일반화된 형식)의 확립에 기초한 수학적 명제가 천 개가 넘습니다. 즉, 리만 가설과 그 일반화된 형식이 입증되면 천 개가 넘는 명제가 정리로 확립되어 수학 분야에 지대한 영향을 미칠 것이며, 리만 가설이 틀린 것으로 입증된다면, 이러한 제안의 일부도 그 효과를 잃을 것입니다. MIT 수학 교수 Larry Guth와 Oxford University의 새로운 돌파구

LLM은 시계열 예측에 적합하지 않습니다. 추론 능력도 사용하지 않습니다. LLM은 시계열 예측에 적합하지 않습니다. 추론 능력도 사용하지 않습니다. Jul 15, 2024 pm 03:59 PM

시계열 예측에 언어 모델을 실제로 사용할 수 있나요? Betteridge의 헤드라인 법칙(물음표로 끝나는 모든 뉴스 헤드라인은 "아니오"로 대답할 수 있음)에 따르면 대답은 아니오여야 합니다. 사실은 사실인 것 같습니다. 이렇게 강력한 LLM은 시계열 데이터를 잘 처리할 수 없습니다. 시계열, 즉 시계열은 이름에서 알 수 있듯이 시간 순서대로 배열된 데이터 포인트 시퀀스 집합을 나타냅니다. 시계열 분석은 질병 확산 예측, 소매 분석, 의료, 금융 등 다양한 분야에서 중요합니다. 시계열 분석 분야에서는 최근 많은 연구자들이 LLM(Large Language Model)을 사용하여 시계열의 이상 현상을 분류, 예측 및 탐지하는 방법을 연구하고 있습니다. 이 논문에서는 텍스트의 순차적 종속성을 잘 처리하는 언어 모델이 시계열로도 일반화될 수 있다고 가정합니다.

See all articles