Tian Yuandong 등의 새로운 작업: 메모리 병목 현상을 극복하고 4090 사전 훈련된 7B 대형 모델 허용
Meta FAIR 지난 달 참여한 연구 프로젝트 Tian Yuandong이 폭넓은 호평을 받았습니다. "MobileLLM: 장치 내 사용 사례를 위한 10억 미만 매개 변수 언어 모델 최적화"라는 논문에서 그들은 모바일 장치에서 대규모 언어 모델을 실행한다는 목표를 달성하기 위해 10억 개 미만의 매개 변수를 사용하여 작은 모델을 최적화하는 방법을 탐색하기 시작했습니다. .
3월 6일 Tian Yuandong 팀은 LLM 메모리 효율성 향상에 초점을 맞춘 최신 연구 결과를 발표했습니다. 연구팀에는 Tian Yuandong 자신 외에도 캘리포니아 공과대학(California Institute of Technology), 텍사스 대학교 오스틴 캠퍼스(University of Texas at Austin) 및 CMU의 연구원도 포함되어 있습니다. 본 연구의 목표는 LLM 메모리의 성능을 더욱 최적화하고 향후 기술 개발을 위한 지원과 지침을 제공하는 것입니다.
그들은 전체 매개변수 학습이 가능한 GaLore(Gradient Low-Rank Projection)라는 훈련 전략을 공동으로 제안했습니다. 이는 LoRA와 같은 일반적인 하위 순위 적응 방법에 비해 GaLore는 메모리 효율성이 더 높습니다.
이 연구에서는 모델 병렬 처리, 체크포인트 또는 오프로드 전략을 사용하지 않고도 7B 모델이 24GB 메모리(예: NVIDIA RTX 4090)를 갖춘 소비자 GPU에서 성공적으로 사전 훈련될 수 있음을 처음으로 보여줍니다.
논문 주소: https://arxiv.org/abs/2403.03507
논문 제목: GaLore: Memory-Efficient LLM Training by Gradient Low-Rank Projection
다음을 살펴보겠습니다. 기사의 주요 내용입니다.
현재 LLM(Large Language Model)은 여러 분야에서 뛰어난 잠재력을 보여주고 있지만 현실적인 문제도 직면해야 합니다. 즉, LLM을 사전 훈련하고 미세 조정하려면 많은 양의 컴퓨팅 리소스가 필요할 뿐만 아니라, 그러나 또한 많은 양의 메모리 지원이 필요합니다.
LLM의 메모리 요구 사항에는 수십억 개의 매개변수뿐만 아니라 저장소 자체보다 클 수 있는 기울기 및 최적화 상태(예: Adam의 기울기 모멘텀 및 분산)도 포함됩니다. 예를 들어 단일 배치 크기를 사용하여 처음부터 사전 훈련된 LLaMA 7B에는 최소 58GB의 메모리가 필요합니다(훈련 가능한 매개변수의 경우 14GB, Adam Optimizer 상태 및 가중치 기울기의 경우 42GB, 활성화의 경우 2GB). 이로 인해 24GB 메모리를 갖춘 NVIDIA RTX 4090과 같은 소비자급 GPU에서는 LLM 교육이 불가능해집니다.
위 문제를 해결하기 위해 연구자들은 사전 학습 및 미세 조정 중에 메모리 사용량을 줄이기 위한 다양한 최적화 기술을 계속 개발하고 있습니다.
이 방법은 최적화 상태에서 메모리 사용량을 65.5% 줄이면서 최대 19.7B 토큰이 포함된 C4 데이터 세트를 사용하는 LLaMA 1B 및 7B 아키텍처에서 사전 학습의 효율성과 성능을 유지하고 GLUE에서 작업에 대한 RoBERTa의 효율성과 성능. BF16 기준에 비해 8비트 GaLore는 최적화 메모리를 82.5%, 총 훈련 메모리를 63.3% 더 줄입니다.
이 연구를 본 네티즌들은 "이제 클라우드와 HPC를 잊어야 할 때입니다. GaLore를 사용하면 모든 AI4Science가 2,000달러짜리 소비자급 GPU에서 완성될 것입니다."라고 말했습니다.
Tian Yuandong은 다음과 같이 말했습니다. "GaLore를 사용하면 이제 24G 메모리를 갖춘 NVidia RTX 4090s에서 7B 모델을 사전 훈련하는 것이 가능해졌습니다.
LoRA와 같은 낮은 순위의 가중치 구조를 가정하지 않았지만 가중치 기울기가 자연스럽게 낮다는 것을 증명했습니다. 순위를 부여하므로 (다양한) 저차원 공간에 투영될 수 있습니다. 따라서 기울기, Adam 모멘텀 및 분산에 대한 메모리를 동시에 절약할 수 있습니다.
따라서 LoRA와 달리 GaLore는 훈련 역학을 변경하지 않으며 메모리를 많이 소모하는 워밍업 없이 7B 모델 사전 훈련을 시작하면 GaLore를 미세 조정에도 사용할 수 있어 LoRA와 비슷한 결과를 얻을 수 있습니다.
방법 소개
앞서 언급했듯이 GaLore는 전체 매개변수 학습을 허용하는 훈련 전략이지만 일반적인 낮은 순위 적응 방법(예: LoRA)보다 메모리 효율적입니다. GaLore의 핵심 아이디어는 가중치 행렬을 직접적으로 low-rank 형태로 근사시키려는 것이 아니라, 가중치 행렬 W의 그래디언트의 천천히 변화하는 low-rank 구조를 활용하는 것입니다.
이 기사에서는 먼저 경사 행렬 G가 훈련 과정에서 낮은 순위가 된다는 것을 이론적으로 증명했습니다. 이론을 바탕으로 이 기사에서는 GaLore를 사용하여 두 개의 투영 행렬 및
을 계산하여 경사 행렬 G를 투영합니다. 낮은 순위 형식 P^⊤GQ. 이 경우 구성요소 그라데이션 통계에 의존하는 최적화 상태의 메모리 비용을 크게 줄일 수 있습니다. 표 1에서 볼 수 있듯이 GaLore는 LoRA보다 메모리 효율성이 더 높습니다. 실제로 이는 LoRA에 비해 사전 훈련 중에 메모리를 최대 30%까지 줄일 수 있습니다.
이 기사는 GaLore가 사전 훈련 및 미세 조정에서 좋은 성능을 발휘한다는 것을 증명합니다. C4 데이터 세트에서 LLaMA 7B를 사전 훈련할 때 8비트 GaLore는 8비트 최적화 프로그램과 레이어별 가중치 업데이트 기술을 결합하여 최적화 프로그램 상태에서 10% 미만의 메모리 비용으로 전체 순위에 필적하는 성능을 달성합니다.
사전 훈련의 경우 GaLore는 ReLoRA와 같은 전체 등급 훈련을 요구하지 않고 훈련 과정 전반에 걸쳐 메모리를 낮게 유지한다는 점에 주목할 가치가 있습니다. GaLore의 메모리 효율성 덕분에 처음으로 LLaMA 7B는 값비싼 메모리 오프로딩 기술 없이도 24GB 메모리를 갖춘 단일 GPU(예: NVIDIA RTX 4090)에서 처음부터 훈련할 수 있습니다(그림 1).
GaLore는 그라디언트 투영 방법으로 최적화 프로그램 선택에 독립적이며 알고리즘 1과 같이 단 두 줄의 코드만으로 기존 최적화 프로그램에 쉽게 연결할 수 있습니다.
다음 그림은 GaLore를 Adam에 적용하는 알고리즘을 보여줍니다.
실험 및 결과
연구원들은 GaLore의 사전 훈련과 LLM의 미세 조정을 평가했습니다. 모든 실험은 NVIDIA A100 GPU에서 수행되었습니다.
성능을 평가하기 위해 연구원들은 GaLore를 적용하여 C4 데이터 세트에서 LLaMA를 기반으로 한 대규모 언어 모델을 훈련했습니다. C4 데이터 세트는 주로 언어 모델과 단어 표현을 사전 훈련하는 데 사용되는 Common Crawl 웹 크롤링 코퍼스의 거대하고 정제된 버전입니다. 실제 사전 훈련 시나리오를 가장 잘 시뮬레이션하기 위해 연구원들은 데이터를 복제하지 않고 모델 크기가 최대 70억 개에 달하는 매개변수를 사용하여 충분히 많은 양의 데이터를 훈련했습니다.
이 문서는 RMSNorm 및 SwiGLU 활성화와 함께 LLaMA3 기반 아키텍처를 사용하는 Lialin 등의 실험 설정을 따릅니다. 학습률을 제외한 각 모델 크기에 대해 동일한 하이퍼 매개변수 세트를 사용하고 모든 실험을 BF16 형식으로 실행하여 동일한 계산 예산으로 각 방법의 학습률을 조정하면서 메모리 사용량을 줄이고 최적의 성능을 보고했습니다.
또한 연구원들은 GaLore 및 LoRA의 메모리 효율적인 미세 조정을 위한 벤치마크로 GLUE 작업을 사용했습니다. GLUE는 감정 분석, 질문 답변, 텍스트 상관관계 등 다양한 작업에서 NLP 모델의 성능을 평가하기 위한 벤치마크입니다.
본 논문에서는 먼저 Adam 옵티마이저를 사용하여 GaLore와 기존 하위 순위 방법을 비교했으며 그 결과는 표 2에 나와 있습니다.
연구원들은 GaLore를 다양한 학습 알고리즘, 특히 메모리 효율적인 최적화 프로그램에 적용하여 메모리 사용량을 더욱 줄일 수 있음을 입증했습니다. 연구원들은 GaLore를 AdamW, 8비트 Adam 및 Adafactor 최적화 프로그램에 적용했습니다. 그들은 성능 저하를 피하기 위해 1차 통계적 Adafactor를 사용합니다.
실험을 통해 LLaMA 1B 아키텍처에서 10K 학습 단계로 평가하고 각 설정에 대한 학습 속도를 조정한 후 최고의 성능을 보고했습니다. 그림 3에 표시된 것처럼 아래 그래프는 GaLore가 AdamW, 8비트 Adam 및 Adafactor와 같은 널리 사용되는 최적화 프로그램과 함께 작동함을 보여줍니다. 게다가 아주 적은 수의 하이퍼파라미터를 도입해도 GaLore의 성능에는 영향을 미치지 않습니다.
표 4에서 볼 수 있듯이 GaLore는 대부분의 작업에서 더 적은 메모리 사용량으로 LoRA보다 높은 성능을 달성할 수 있습니다. 이는 GaLore가 LLM 사전 훈련 및 미세 조정을 위한 전체 스택 메모리 효율적인 훈련 전략으로 사용될 수 있음을 보여줍니다.
그림 4에서 볼 수 있듯이 BF16 벤치마크 및 8비트 Adam과 비교하면 8비트 GaLore는 훨씬 적은 메모리를 필요로 하며 LLaMA 7B를 사전 훈련할 때 22.0G 메모리만 필요하며 각 GPU의 토큰 배치 크기는 다음과 같습니다. 더 작습니다(최대 500개의 토큰).
더 자세한 기술적인 내용은 원본 논문을 읽어보세요.
위 내용은 Tian Yuandong 등의 새로운 작업: 메모리 병목 현상을 극복하고 4090 사전 훈련된 7B 대형 모델 허용의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











기존 컴퓨팅을 능가할 뿐만 아니라 더 낮은 비용으로 더 효율적인 성능을 달성하는 인공 지능 모델을 상상해 보세요. 이것은 공상과학 소설이 아닙니다. DeepSeek-V2[1], 세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. DeepSeek-V2는 경제적인 훈련과 효율적인 추론이라는 특징을 지닌 전문가(MoE) 언어 모델의 강력한 혼합입니다. 이는 236B 매개변수로 구성되며, 그 중 21B는 각 마커를 활성화하는 데 사용됩니다. DeepSeek67B와 비교하여 DeepSeek-V2는 더 강력한 성능을 제공하는 동시에 훈련 비용을 42.5% 절감하고 KV 캐시를 93.3% 줄이며 최대 생성 처리량을 5.76배로 늘립니다. DeepSeek은 일반 인공지능을 연구하는 회사입니다.

이달 초 MIT와 기타 기관의 연구자들은 MLP에 대한 매우 유망한 대안인 KAN을 제안했습니다. KAN은 정확성과 해석성 측면에서 MLP보다 뛰어납니다. 그리고 매우 적은 수의 매개변수로 더 많은 수의 매개변수를 사용하여 실행되는 MLP보다 성능이 뛰어날 수 있습니다. 예를 들어 저자는 KAN을 사용하여 더 작은 네트워크와 더 높은 수준의 자동화로 DeepMind의 결과를 재현했다고 밝혔습니다. 구체적으로 DeepMind의 MLP에는 약 300,000개의 매개변수가 있는 반면 KAN에는 약 200개의 매개변수만 있습니다. KAN은 MLP와 같이 강력한 수학적 기반을 가지고 있으며, KAN은 Kolmogorov-Arnold 표현 정리를 기반으로 합니다. 아래 그림과 같이 KAN은

Deepseek 클래스 모델의 로컬 미세 조정은 컴퓨팅 리소스와 전문 지식이 충분하지 않아야합니다. 이러한 과제를 해결하기 위해 다음과 같은 전략을 채택 할 수 있습니다. 모델 양자화 : 모델 매개 변수를 저 반영 정수로 변환하여 메모리 발자국을 줄입니다. 더 작은 모델 사용 : 더 쉬운 로컬 미세 조정을 위해 작은 매개 변수가있는 사전 취사 모델을 선택하십시오. 데이터 선택 및 전처리 : 고품질 데이터를 선택하고 모델 효과에 영향을 미치는 데이터 품질이 좋지 않도록 적절한 전처리를 수행하십시오. 배치 교육 : 대규모 데이터 세트의 경우 메모리 오버플로를 피하기 위해 훈련을 위해 배치로 데이터를로드하십시오. GPU 로의 가속도 : 독립 그래픽 카드를 사용하여 교육 프로세스를 가속화하고 교육 시간을 단축하십시오.

최근 군계는 미군 전투기가 이제 AI를 활용해 완전 자동 공중전을 완수할 수 있다는 소식에 충격을 받았다. 네, 얼마 전 미군의 AI 전투기가 최초로 공개되면서 그 미스터리가 드러났습니다. 이 전투기의 정식 명칭은 VISTA(Variable Stability Flight Simulator Test Aircraft)로 미 공군 장관이 직접 조종해 일대일 공중전을 모의 실험한 것이다. 5월 2일, 미 공군 장관 프랭크 켄달(Frank Kendall)이 X-62AVISTA를 타고 에드워드 공군 기지에서 이륙했습니다. 1시간의 비행 동안 모든 비행 작업은 AI에 의해 자동으로 완료되었습니다. Kendall은 "지난 수십 년 동안 우리는 자율 공대공 전투의 무한한 잠재력에 대해 생각해 왔지만 항상 도달할 수 없는 것처럼 보였습니다."라고 말했습니다. 그러나 지금은,

1. 먼저 Edge 브라우저에 접속하여 오른쪽 상단에 있는 점 3개를 클릭하세요. 2. 그런 다음 작업 표시줄에서 [확장 프로그램]을 선택하세요. 3. 그런 다음 필요하지 않은 플러그인을 닫거나 제거합니다.

소프트웨어 기술의 선두에 있는 UIUC Zhang Lingming 그룹은 BigCode 조직의 연구원들과 함께 최근 StarCoder2-15B-Instruct 대규모 코드 모델을 발표했습니다. 이 혁신적인 성과는 코드 생성 작업에서 획기적인 발전을 이루었으며 CodeLlama-70B-Instruct를 성공적으로 능가하고 코드 생성 성능 목록의 최상위에 올랐습니다. StarCoder2-15B-Instruct의 독창성은 순수한 자체 정렬 전략에 있습니다. 전체 훈련 프로세스는 개방적이고 투명하며 완전히 자율적이고 제어 가능합니다. 이 모델은 값비싼 수동 주석에 의존하지 않고 StarCoder-15B 기본 모델을 미세 조정한 것에 대한 응답으로 StarCoder2-15B를 통해 수천 개의 명령을 생성합니다.

대규모 언어 모델(LLM)을 인간의 가치와 의도에 맞추려면 인간의 피드백을 학습하여 유용하고 정직하며 무해한지 확인하는 것이 중요합니다. LLM 정렬 측면에서 효과적인 방법은 인간 피드백 기반 강화 학습(RLHF)입니다. RLHF 방법의 결과는 훌륭하지만 몇 가지 최적화 문제가 있습니다. 여기에는 보상 모델을 훈련한 다음 해당 보상을 극대화하기 위해 정책 모델을 최적화하는 것이 포함됩니다. 최근 일부 연구자들은 더 간단한 오프라인 알고리즘을 탐구했는데, 그 중 하나가 직접 선호 최적화(DPO)입니다. DPO는 RLHF의 보상 기능을 매개변수화하여 선호도 데이터를 기반으로 직접 정책 모델을 학습하므로 명시적인 보상 모델이 필요하지 않습니다. 이 방법은 간단하고 안정적입니다.

TrendForce 조사 보고서에 따르면 AI 물결은 DRAM 메모리와 NAND 플래시 메모리 시장에 상당한 영향을 미칩니다. 5월 7일 이 사이트의 뉴스에서 트렌드포스는 오늘 최신 연구 보고서에서 이번 분기에 두 가지 유형의 스토리지 제품에 대한 계약 가격 인상을 인상했다고 밝혔습니다. 구체적으로 트렌드포스는 당초 2024년 2분기 DRAM 메모리 계약 가격이 3~8% 인상될 것으로 추정했는데, 현재 NAND 플래시 메모리 기준으로는 13~18% 증가할 것으로 추정하고 있다. ~18%이고 새로운 추정치는 15% ~20%이며 eMMC/UFS만 10%의 더 낮은 증가율을 갖습니다. ▲이미지 출처 TrendForce TrendForce는 소속사가 당초 계속해서
