32카드 176% 훈련 가속화, 오픈 소스 대형 모델 훈련 프레임워크 Megatron-LLaMA 출시
Taotian Group과 Aicheng Technology는 9월 12일 오픈 소스 대형 모델 훈련 프레임워크인 Megatron-LLaMA를 공식 출시했습니다. 이 프레임워크의 목표는 기술 개발자가 더 쉽게 대규모 언어 모델의 훈련 성능을 향상시키고, 훈련 비용을 절감하며, LLaMA 커뮤니티와의 호환성을 유지할 수 있도록 하는 것입니다. 테스트 결과에 따르면 Megatron-LLaMA는 대규모 훈련에서 HuggingFace에서 직접 얻은 코드 버전에 비해 176%의 가속을 달성할 수 있으며 거의 선형적으로 확장되며 네트워크에 불안정합니다. 높은 수준의 내성. 현재 Megatron-LLaMA는 오픈 소스 커뮤니티에 온라인 상태입니다
오픈 소스 주소: https://github.com/alibaba/Megatron-LLaMA
대형 언어 모델의 뛰어난 성능은 사람들의 상상 시간을 뛰어 넘었고 다시 시간. 지난 몇 달 동안 LLaMA와 LLaMA2는 오픈 소스 커뮤니티에 정식 출시되어 자신만의 대규모 언어 모델을 훈련하려는 사람들에게 훌륭한 옵션을 제공했습니다. 오픈 소스 커뮤니티에는 지속적인 훈련/SFT(예: Alpaca, Vicuna, WizardLM, Platypus, StableBegula, Orca, OpenBuddy, Linly, Ziya 등) 및 처음부터 훈련(예: LLaMA를 기반으로 개발된 모델이 이미 많이 있습니다. Baichuan, QWen, InternLM, OpenLLaMA 등) 작업이 가능합니다. 이러한 작업은 대형 모델 기능에 대한 다양한 객관적인 평가 목록에서 좋은 성능을 발휘했을 뿐만 아니라 긴 텍스트 이해, 긴 텍스트 생성, 코드 작성 및 수학적 해결과 같은 실제 응용 시나리오에서도 탁월한 성능을 보여주었습니다. 이 밖에도 Whisper의 음성 채팅 로봇과 결합된 LLaMA, Stable Diffusion의 페인팅 소프트웨어와 결합된 LLaMA, 의료/법률 분야의 보조 상담 로봇 등 많은 흥미로운 제품이 업계에서 등장했습니다. HuggingFace 모델 코드에서 LLaMA를 얻습니다. 하지만 자신의 데이터로 LLaMA 모델을 훈련시키는 것은 개인 사용자나 중소 규모 조직에게는 저렴하고 간단한 작업이 아닙니다. 대형 모델의 양과 데이터의 규모로 인해 일반적인 컴퓨팅 리소스로는 효과적인 학습을 완료할 수 없으며 컴퓨팅 성능과 비용이 심각한 병목 현상이 되었습니다. 이와 관련하여 Megatron-LM 커뮤니티 사용자들은 매우 긴급한 요구를 갖고 있습니다.
Taotian Group과 Aicheng Technology는 대형 모델 애플리케이션에 대한 매우 광범위한 애플리케이션 시나리오를 보유하고 있으며 대형 모델의 효율적인 교육에 많은 투자를 해왔습니다. LLaMA의 출현은 Taotian Group 및 Aicheng Technology를 포함한 많은 회사에 데이터 처리, 모델 설계, 미세 조정 및 강화 학습 피드백 조정 측면에서 많은 영감을 주었으며 비즈니스 애플리케이션 시나리오에서 새로운 돌파구를 달성하는 데도 도움이 되었습니다. . 따라서 전체 LLaMA 오픈 소스 커뮤니티에 환원하고 중국의 사전 훈련된 대형 모델 오픈 소스 커뮤니티의 발전을 촉진하여 개발자가 보다 쉽게 대형 언어 모델의 훈련 성능을 향상하고 훈련 비용을 절감할 수 있도록 Taotian 그룹과 Aicheng Technology는 내부 기술 최적화 및 오픈 소스를 결합하고 Megatron-LLaMA를 출시하며 모든 파트너와 함께 Megatron 및 LLaMA 생태계 구축을 기대합니다.
Megatron-LLaMA는 표준 Megatron-LM 구현 LLaMA
세트를 제공하고, 커뮤니티 생태 도구와의 호환성을 용이하게 하기 위해 HuggingFace 형식으로 무료 전환을 위한도구를 제공합니다. Megatron-LLaMA는 Megatron-LM의 역과정을 재설계하여 노드 수가 적고 큰 Gradient Aggregation(GA)을 켜야 하는 곳이나 노드 수가 많고 작은 GA를 사용해야 합니다. 우수한 훈련 성능을 발휘해야 합니다. LLaMA는 현재 대규모 언어 모델 오픈 소스 커뮤니티에서 중요한 작업입니다. LLaMA는 BPE 문자 인코딩, RoPE 위치 인코딩, SwiGLU 활성화 함수, RMSNorm 정규화, Untied Embedding 등의 최적화 기술을 LLM의 구조에 도입하여 수많은 객관적, 주관적 평가에서 우수한 결과를 얻었습니다. LLaMA는 7B, 13B, 30B, 65B/70B 버전을 제공하며 이는 대규모 모델 요구 사항이 있는 다양한 시나리오에 적합하고 개발자에게도 선호됩니다. 다른 많은 오픈소스 대형 모델과 마찬가지로 공식에서는 코드의 추론 버전만 제공하기 때문에 최저 비용으로 효율적인 훈련을 수행하는 방법에 대한 표준 패러다임이 없습니다. Megatron-LM은 우아한 고성능 훈련 솔루션입니다. Megatron-LM은 텐서 병렬성(병렬 컴퓨팅을 위해 대규모 곱셈을 여러 카드에 분산하는 Tensor Parallel, TP), 파이프라인 병렬성(모델의 여러 레이어를 처리를 위해 여러 카드에 분산하는 파이프라인 병렬, PP) 및 시퀀스 병렬성(PP)을 제공합니다. Sequence Parallel), SP, 시퀀스의 다른 부분이 다른 카드로 처리되어 비디오 메모리 절약), DistributedOptimizer 최적화(DeepSpeed Zero Stage-2와 유사, 모든 컴퓨팅 노드에 그라디언트 및 최적화 매개 변수 분할) 및 기타 기술 비디오 메모리 사용량을 크게 줄이고 GPU 활용도를 향상시킬 수 있습니다. Megatron-LM은 활발한 오픈 소스 커뮤니티를 운영하고 있으며, 새로운 최적화 기술과 기능 설계가 프레임워크에 계속 통합되고 있습니다. 그러나 Megatron-LM을 기반으로 개발하는 것은 간단하지 않으며 특히 고가의 멀티 카드 머신에서의 디버깅 및 기능 검증은 매우 비쌉니다. Megatron-LLaMA는 먼저 다양한 크기의 모델 버전을 지원하고 HuggingFace 형식을 직접 지원하는 Tokenizer를 포함하여 다양한 LLaMA 변형을 지원하도록 쉽게 조정할 수 있는 Megatron-LM 프레임워크를 기반으로 한 LLaMA 교육 코드 세트를 제공합니다. 따라서 Megatron-LLaMA는 과도한 적응 없이 기존 오프라인 훈련 링크에 쉽게 적용될 수 있습니다. LLaMA-7b 및 LLaMA-13b의 중소 규모 훈련/미세 조정 시나리오에서 Megatron-LLaMA는 54%가 넘는 업계 최고의 하드웨어 활용도(MFU)를 쉽게 달성할 수 있습니다 Megatron-LLaMA 역 프로세스 최적화 다시 작성해야 하는 내용은 다음과 같습니다. 그림: DeepSpeed ZeRO Stage-2 DeepSpeed ZeRO는 Microsoft에서 출시한 분산 교육 프레임워크 세트입니다. 이는 이후의 많은 프레임워크에 매우 광범위하게 적용됩니다. DeepSpeed ZeRO Stage-2 (이하 ZeRO-2)는 추가적인 계산 및 통신 작업 부하를 추가하지 않고 메모리 사용량을 절약하는 프레임워크 내 기술입니다. 위 그림에 표시된 것처럼 계산 요구 사항으로 인해 각 순위에는 모든 매개변수가 있어야 합니다. 그러나 옵티마이저 상태의 경우 각 순위는 일부만 담당하며 모든 순위가 동시에 완전히 반복되는 작업을 수행할 필요는 없습니다. 따라서 ZeRO-2는 옵티마이저 상태를 각 순위로 균등하게 나눌 것을 제안합니다(각 변수가 특정 순위에서 균등하게 분할되거나 완전히 유지되는지 확인할 필요는 없습니다). 각 순위는 훈련 과정 중에만 사용하면 됩니다. .해당 부품의 최적화 상태 및 모델 매개변수 업데이트를 담당합니다. 이 설정에서는 그라데이션을 이런 방식으로 분할할 수도 있습니다. 기본적으로 ZeRO-2는 Reduce 메서드를 사용하여 모든 Rank 사이의 기울기를 역으로 집계한 다음 각 Rank는 자신이 담당하는 매개변수의 일부만 유지하면 되므로 중복된 반복 계산을 제거할 뿐만 아니라 메모리도 줄어듭니다. 용법. . Megatron-LM DistributedOptimizer Native Megatron-LM은 DistributedOptimizer를 통해 ZeRO-2와 유사한 그래디언트 및 최적화 상태 분할을 구현하여 훈련 중 비디오 메모리 사용량을 줄입니다. 위 그림과 같이 DistributedOptimizer는 미리 설정된 Gradient로 집계된 Gradient를 모두 얻은 후 ReduceScatter 연산자를 사용하여 이전에 누적된 Gradient를 모두 다른 Rank로 분산시킵니다. 각 순위는 처리해야 하는 그래디언트의 일부만 얻은 다음 최적화 상태와 해당 매개변수를 업데이트합니다. 마지막으로 각 Rank는 AllGather를 통해 다른 노드로부터 업데이트된 매개변수를 획득하고, 최종적으로 모든 매개변수를 획득합니다. 실제 훈련 결과는 Megatron-LM의 기울기 및 매개변수 통신이 다른 계산과 연속적으로 수행되는 것을 보여줍니다. 대규모 사전 훈련 작업의 경우 전체 배치 데이터 크기가 변경되지 않도록 하기 위해 일반적으로 불가능합니다. 더 큰 GA를 엽니다. 따라서, 기계의 증가에 따라 통신의 비중도 증가하게 되는데, 이때 직렬 통신의 특성상 확장성이 매우 약하게 됩니다. 커뮤니티 내에서도 이에 대한 필요성이 시급합니다 이 문제를 해결하기 위해 Megatron-LLaMA는 기본 Megatron-LM의 DistributedOptimizer를 더욱 개선했습니다. 그라디언트 통신에 효율적입니다. 하위 기능은 계산과 병렬화될 수 있습니다. 특히 Megatron-LLaMA는 ZeRO의 구현에 비해 확장성이 더 뛰어난 집단 통신 방식을 사용하여 병렬성을 전제로 한 최적화 파티셔닝 전략의 영리한 최적화를 통해 확장성을 향상시킵니다. OverlappedDistributedOptimizer의 주요 설계는 다음 사항을 보장합니다. a) 단일 세트 통신 사업자의 데이터 볼륨은 통신 대역폭을 완전히 활용할 수 있을 만큼 충분히 큽니다. b) 새로운 분할 방법에 필요한 통신 데이터의 양은 최소와 같아야 합니다. 데이터 병렬성에 필요한 통신 데이터 볼륨 c) 전체 매개변수 또는 기울기 및 분할된 매개변수 또는 기울기의 변환 프로세스 중에 너무 많은 비디오 메모리 복사본을 도입할 수 없습니다. 구체적으로 Megatron-LLaMA는 DistributedOptimizer를 개선하여 학습의 역과정에서 새로운 분할 방법을 최적화하는 데 사용되는 OverlappedDistributedOptimizer를 제안했습니다. 그림과 같이 OverlappedDistributedOptimizer를 초기화할 때 모든 매개변수는 해당 매개변수가 속한 Bucket에 미리 할당됩니다. 각 버킷의 매개변수는 완전합니다. 하나의 매개변수는 하나의 버킷에만 속합니다. 논리적으로 각 Bucket은 지속적으로 P 부분(P는 데이터 병렬 그룹 수)으로 나누어지고, 데이터 병렬 그룹의 각 순위는 그 중 하나를 담당합니다. Bucket은 로컬 그래디언트 버킷 큐에 배치됩니다. 통신 질서를 보장합니다. 훈련 계산이 수행되는 동안 데이터 병렬 그룹은 집단 통신을 통해 버킷 단위로 필요한 기울기를 교환합니다. Megatron-LLaMA에서 Bucket 구현은 가능한 한 주소 인덱싱을 사용하며 비디오 메모리 낭비를 피하기 위해 값을 변경해야 하는 경우에만 새 공간이 할당됩니다 수많은 엔지니어링 최적화를 결합하여 위의 설계로 대규모 작업이 가능합니다. 대규모 훈련 중에 Megatron-LLaMA는 하드웨어를 완전히 활용하고 기본 Megatron-LM보다 더 나은 가속을 달성할 수 있습니다. 일반적으로 사용되는 네트워크 환경에서 훈련 규모를 A100 카드 32장에서 A100 카드 512장으로 확장하면 Megatron-LLaMA는 여전히 0.85의 확장 비율을 달성할 수 있습니다 Megatron-LLaMA는 A입니다. Taotian Group과 Aicheng Technology가 공동으로 오픈 소스로 제공하고 후속 유지 관리 지원을 제공하는 교육 프레임워크가 내부적으로 널리 사용되었습니다. 점점 더 많은 개발자가 LLaMA의 오픈 소스 커뮤니티에 참여하고 서로 배울 수 있는 경험을 제공함에 따라 앞으로 교육 프레임워크 수준에서 더 많은 도전과 기회가 있을 것이라고 믿습니다. Megatron-LLaMA는 커뮤니티의 발전에 세심한 주의를 기울이고 개발자와 협력하여 다음 방향으로 개발을 촉진할 것입니다. 프로젝트 주소: https://github.com/alibaba/Megatron-LLaMA
Megatron-LM 기술은 고성능 LLaMA 교육 기회를 제공합니다
Megatron-LLaMA OverlappedDistributedOptimizer
Megatron-LLaMA의 향후 계획
위 내용은 32카드 176% 훈련 가속화, 오픈 소스 대형 모델 훈련 프레임워크 Megatron-LLaMA 출시의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











이렇게 강력한 AI 모방 능력을 가지고 있다면, 막는 것은 사실상 불가능합니다. 이제 AI의 발전이 이 정도 수준에 이르렀나? 앞발은 이목구비를 날리게 하고, 뒷발은 쳐다보는 것, 눈썹을 치켜올리는 것, 삐죽이는 것 등 아무리 과장된 표정이라도 완벽하게 흉내낸다. 난이도를 높이고, 눈썹을 더 높이 올리고, 눈을 크게 뜨고, 입 모양까지 비뚤어지게 표현하는 등 가상 캐릭터 아바타가 표정을 완벽하게 재현할 수 있다. 왼쪽의 매개변수를 조정하면 오른쪽의 가상 아바타도 그에 따라 움직임을 변경하여 입과 눈을 클로즈업하여 모방이 완전히 동일하다고는 할 수 없으며 표정만 정확합니다. 마찬가지다(맨 오른쪽). 이 연구는 GaussianAvatars를 제안하는 뮌헨 기술 대학과 같은 기관에서 나왔습니다.

StableDiffusion3의 논문이 드디어 나왔습니다! 이 모델은 2주 전에 출시되었으며 Sora와 동일한 DiT(DiffusionTransformer) 아키텍처를 사용합니다. 출시되자마자 큰 화제를 불러일으켰습니다. 이전 버전과 비교하여 StableDiffusion3에서 생성된 이미지의 품질이 크게 향상되었습니다. 이제 다중 테마 프롬프트를 지원하고 텍스트 쓰기 효과도 향상되었으며 더 이상 잘못된 문자가 표시되지 않습니다. StabilityAI는 StableDiffusion3이 800M에서 8B 범위의 매개변수 크기를 가진 일련의 모델임을 지적했습니다. 이 매개변수 범위는 모델이 많은 휴대용 장치에서 직접 실행될 수 있어 AI 사용이 크게 줄어든다는 것을 의미합니다.

자율주행 궤적 예측은 차량의 주행 과정에서 발생하는 다양한 데이터를 분석하여 차량의 향후 주행 궤적을 예측하는 것을 의미합니다. 자율주행의 핵심 모듈인 궤도 예측의 품질은 후속 계획 제어에 매우 중요합니다. 궤적 예측 작업은 풍부한 기술 스택을 보유하고 있으며 자율 주행 동적/정적 인식, 고정밀 지도, 차선, 신경망 아키텍처(CNN&GNN&Transformer) 기술 등에 대한 익숙함이 필요합니다. 시작하기가 매우 어렵습니다! 많은 팬들은 가능한 한 빨리 궤도 예측을 시작하여 함정을 피하기를 희망합니다. 오늘은 궤도 예측을 위한 몇 가지 일반적인 문제와 입문 학습 방법을 살펴보겠습니다. 관련 지식 입문 1. 미리보기 논문이 순서대로 되어 있나요? A: 먼저 설문조사를 보세요, p

본 논문에서는 자율 주행에서 다양한 시야각(예: 원근 및 조감도)에서 객체를 정확하게 감지하는 문제, 특히 원근(PV) 공간에서 조감(BEV) 공간으로 기능을 효과적으로 변환하는 방법을 탐구합니다. VT(Visual Transformation) 모듈을 통해 구현됩니다. 기존 방법은 크게 2D에서 3D로, 3D에서 2D로 변환하는 두 가지 전략으로 나뉩니다. 2D에서 3D로의 방법은 깊이 확률을 예측하여 조밀한 2D 특징을 개선하지만, 특히 먼 영역에서는 깊이 예측의 본질적인 불확실성으로 인해 부정확성이 발생할 수 있습니다. 3D에서 2D로의 방법은 일반적으로 3D 쿼리를 사용하여 2D 기능을 샘플링하고 Transformer를 통해 3D와 2D 기능 간의 대응에 대한 주의 가중치를 학습하므로 계산 및 배포 시간이 늘어납니다.

이 네모난 남자는 눈앞에 있는 '불청객'의 정체를 고민하며 미간을 찌푸리고 있다는 점에 주목해주세요. 알고 보니 그녀는 위험한 상황에 처해 있었고, 이를 깨닫자마자 문제를 해결하기 위한 전략을 찾기 위해 재빨리 정신적 탐색을 시작했습니다. 결국 그녀는 현장을 떠나 가능한 한 빨리 도움을 구하고 즉각적인 조치를 취하기로 결정했습니다. 동시에 반대편에 있는 사람도 그녀와 같은 생각을 하고 있었는데... <마인크래프트>에도 모든 캐릭터가 인공지능에 의해 조종되는 장면이 있었다. 예를 들어 앞서 언급한 소녀는 17세지만 똑똑하고 용감한 택배기사입니다. 그들은 마인크래프트를 배경으로 한 이 작은 마을에서 인간처럼 기억하고 생각하며 살아갈 수 있는 능력을 가지고 있습니다. 그들을 움직이는 것은 아주 새로운 것입니다.

최근 화웨이는 Xuanji 감지 시스템을 탑재한 새로운 스마트 웨어러블 제품을 9월에 출시할 예정이라고 발표했는데, 이는 화웨이의 최신 스마트 워치가 될 것으로 예상됩니다. 이 신제품은 고급 감정 건강 모니터링 기능을 통합하여 사용자에게 정확성, 포괄성, 속도, 유연성, 개방성 및 확장성의 6가지 특성을 갖춘 포괄적인 건강 평가를 제공합니다. 이 시스템은 슈퍼 센싱 모듈을 사용하고 다중 채널 광학 경로 아키텍처 기술을 최적화하여 심박수, 혈중 산소 및 호흡수와 같은 기본 지표의 모니터링 정확도를 크게 향상시킵니다. 또한 Xuanji Sensing System은 심박수 데이터를 기반으로 감정 상태에 대한 연구를 확장했으며, 생리적 지표에 국한되지 않고 사용자의 감정 상태와 스트레스 수준도 평가할 수 있습니다. 60개 이상의 스포츠에 대한 모니터링을 지원합니다. 심혈관, 호흡기, 신경, 내분비,

9월 23일, 국립방위기술대학교, JD.com 및 베이징 공과대학이 "DeepModelFusion:ASurvey"라는 논문을 발표했습니다. 딥 모델 융합/병합은 여러 딥 러닝 모델의 매개변수나 예측을 단일 모델로 결합하는 새로운 기술입니다. 이는 더 나은 성능을 위해 개별 모델의 편향과 오류를 보상하기 위해 다양한 모델의 기능을 결합합니다. 대규모 딥 러닝 모델(예: LLM 및 기본 모델)에 대한 딥 모델 융합은 높은 계산 비용, 고차원 매개변수 공간, 서로 다른 이종 모델 간의 간섭 등을 포함한 몇 가지 문제에 직면합니다. 이 기사에서는 기존 심층 모델 융합 방법을 네 가지 범주로 나눕니다. (1) 더 나은 초기 모델 융합을 얻기 위해 손실 감소 경로를 통해 가중치 공간의 솔루션을 연결하는 "패턴 연결"

위에 작성됨 & 저자의 개인적인 이해는 이미지 기반 3D 재구성은 입력 이미지 세트에서 객체나 장면의 3D 모양을 추론하는 어려운 작업이라는 것입니다. 학습 기반 방법은 3차원 형상을 직접 추정할 수 있는 능력으로 주목을 받았습니다. 이 리뷰 논문은 새로운, 보이지 않는 뷰 생성을 포함한 최첨단 3D 재구성 기술에 중점을 두고 있습니다. 입력 유형, 모델 구조, 출력 표현 및 훈련 전략을 포함하여 가우스 스플래시 방법의 최근 개발에 대한 개요가 제공됩니다. 해결되지 않은 과제와 앞으로의 방향에 대해서도 논의한다. 해당 분야의 급속한 발전과 3D 재구성 방법을 향상할 수 있는 수많은 기회를 고려할 때 알고리즘을 철저히 조사하는 것이 중요해 보입니다. 따라서 이 연구는 가우스 산란의 최근 발전에 대한 포괄적인 개요를 제공합니다. (엄지손가락을 위로 스와이프하세요.
