기술 주변기기 일체 포함 Llama3의 훈련 비용이 1/17에 불과한 Snowflake 오픈 소스 128x3B MoE 모델

Llama3의 훈련 비용이 1/17에 불과한 Snowflake 오픈 소스 128x3B MoE 모델

Apr 25, 2024 pm 04:10 PM
apache 산업 압축 기술

Snowflake가 LLM 근접전에 합류했습니다.


Snowflake는 내부 엔터프라이즈 애플리케이션에 초점을 맞춘 높은 "엔터프라이즈 인텔리전스" 모델 Arctic을 출시합니다.

방금 데이터 관리 및 웨어하우스 제공업체인 Snowflake는 LLM 난투에 합류했으며 엔터프라이즈급 애플리케이션에 초점을 맞춘 최상위 LLM(대형 언어 모델)인 Snowflake Arctic을 출시했다고 발표했습니다.

클라우드 컴퓨팅 회사에서 출시한 LLM인 Arctic은 주로 다음과 같은 두 가지 장점을 가지고 있습니다.

  • 효율적인 인텔리전스: Arctic은 SQL 생성, 프로그래밍 및 지침 따르기와 같은 엔터프라이즈 작업에서 잘 수행됩니다. , 더 높은 계산 비용으로 훈련된 오픈 소스 모델과도 비교할 수 있습니다. Arctic은 비용 효율적인 교육을 위한 새로운 기준을 설정하여 Snowflake 고객이 기업 요구 사항에 맞는 고품질 맞춤형 모델을 저렴한 비용으로 만들 수 있도록 지원합니다.
  • 오픈 소스: Arctic은 Apache 2.0 라이선스를 채택하여 무게와 코드에 대한 공개 액세스를 제공하며 Snowflake는 모든 데이터 솔루션과 연구 결과도 오픈 소스로 제공합니다.

이제 Hugging Face에서 Arctic 모델에 액세스할 수 있습니다. Snowflake는 다음과 같이 말했습니다: 사용자는 곧 Snowflake Cortex, AWS, Microsoft Azure, NVIDIA API, Lamini, Perplexity, Replicate 및 Together 등을 포함한 다양한 모델 라이브러리를 통해 이를 얻을 수 있을 것입니다.
仅需Llama3 1/17的训练成本,Snowflake开源128x3B MoE模型
Hugging Face: https://huggingface.co/Snowflake/snowflake-arctic-instruct

Arctic의 컨텍스트 창은 4K로 설정되어 있으며, 연구팀은 주의 집중 감소 기반 슬라이딩 창을 개발 중입니다. 구현은 앞으로 몇 주 내에 무제한 시퀀스 생성을 지원할 예정이며 가까운 시일 내에 32K 관심 창으로 확장될 예정입니다.

고성능, 저비용

Snowflake 연구팀은 기업 고객의 AI 요구 사항 및 사용 사례에서 일관된 패턴을 확인했습니다. 기업은 LLM을 사용하여 대화형 SQL 데이터 부조종사, 코드를 구축하기를 원합니다. 부조종사 및 RAG 챗봇.

이는 LLM이 SQL, 코드, 복잡한 지침을 따르고 구체적인 응답을 생성하는 데 탁월해야 함을 의미합니다. Snowflake는 인코딩(HumanEval+ 및 MBPP+), SQL 생성(Spider) 및 명령 따르기(IFEval) 성능 수준을 평균화하여 이러한 기능을 "엔터프라이즈 인텔리전스"라는 단일 지표로 결합합니다.

Arctic은 오픈 소스 LLM에서 최고 수준의 "엔터프라이즈 인텔리전스"에 도달했으며 훈련 컴퓨팅 비용으로 약 200만 달러 미만(3,000 GPU 주 미만)으로 이를 수행합니다. 이는 Arctic이 유사한 계산 비용으로 훈련된 다른 오픈 소스 모델보다 더 뛰어난 성능을 발휘한다는 것을 의미합니다.

더 중요한 것은 Arctic은 훨씬 더 높은 계산 비용으로 훈련된 모델과 비교해도 엔터프라이즈 인텔리전스에서 탁월하다는 것입니다. Arctic의 높은 훈련 효율성은 Snowflake의 고객과 AI 커뮤니티 전체가 맞춤형 모델을 보다 비용 효율적으로 훈련할 수 있음을 의미합니다.

그림 1에서 볼 수 있듯이 Arctic은 엔터프라이즈 인텔리전스 지표에서 LLAMA 3 8B 및 LLAMA 2 70B와 동등하며 교육 계산 비용을 절반 미만으로 사용합니다. 그리고 Arctic은 컴퓨팅 비용을 1/17만 사용함에도 불구하고 인코딩(HumanEval+ 및 MBPP+), SQL(Spider), 명령어 추적(IFEval) 등의 지표에서 Llama3 70B와 동등합니다. 즉, Arctic은 전반적인 성능 경쟁력을 유지합니다. 이 일을 동시에 했습니다.
仅需Llama3 1/17的训练成本,Snowflake开源128x3B MoE模型
仅需Llama3 1/17的训练成本,Snowflake开源128x3B MoE模型
또한 Snowflake는 세계 지식, 상식 추론 및 수학적 능력을 포함하는 학문적 벤치마크에서도 Arctic을 평가했습니다. 전체 평가 결과는 아래 그림과 같습니다.
仅需Llama3 1/17的训练成本,Snowflake开源128x3B MoE模型
仅需Llama3 1/17的训练成本,Snowflake开源128x3B MoE模型
Training Efficiency

위의 훈련 효율성을 달성하기 위해 Arctic은 고유한 Dense-MoE 하이브리드 변환기 아키텍처를 사용합니다. 10B 밀도 변압기 모델과 128×3.66B 잔류 MoE MLP, 총 480B 매개변수 및 17B 활성 매개변수를 결합하고 선택을 위해 상위 2 게이팅을 사용합니다.

Arctic을 설계하고 훈련할 때 연구팀은 다음 세 가지 핵심 통찰력과 혁신을 사용했습니다.

MoE 전문가 및 압축 기술

DeepSpeed ​​​​팀은 2021년 말에 MoE를 자동 회귀 LLM에 적용하여 계산 비용을 늘리지 않고도 모델 품질을 크게 향상시킬 수 있음이 입증되었습니다. 연구팀은 Arctic을 설계할 때 이 아이디어를 바탕으로 모델 품질 향상이 주로 MoE 모델의 전문가 수와 전체 매개변수 수, 그리고 이러한 전문가의 조합 수에 달려 있다는 사실을 알아냈습니다.

이를 기반으로 Arctic은 128명의 세분화된 전문가에게 480B 매개변수를 배포하고 Top-2 게이팅을 사용하여 17B 활성 매개변수를 선택하도록 설계되었습니다.

아키텍처 및 시스템 공동 설계

강력한 AI 교육 하드웨어를 사용하여 다수의 전문가와 함께 기본 MoE 아키텍처를 교육하는 것은 전문가 간 완전히 연결된 통신의 오버헤드가 높기 때문에 매우 비효율적입니다. Snowflake는 통신이 계산과 겹칠 수 있다면 이러한 오버헤드를 제거할 수 있다는 사실을 발견했습니다.

따라서 Arctic은 조밀한 변환기와 잔류 MoE 구성 요소(그림 2)를 결합하여 통신을 통해 중첩을 계산함으로써 훈련 시스템이 우수한 훈련 효율성을 달성하고 대부분의 통신 오버헤드를 숨길 수 있도록 합니다.
仅需Llama3 1/17的训练成本,Snowflake开源128x3B MoE模型
엔터프라이즈 데이터 중심 커리큘럼 학습

코드 생성, SQL 등 엔터프라이즈급 메트릭에서 뛰어난 성능을 발휘하려면 일반 메트릭과는 전혀 다른 데이터 커리큘럼 학습(Curriculum Learning)이 필요합니다. 수백 번의 소규모 절제 실험을 통해 팀은 상식 추론과 같은 일반적인 기술을 초기 단계에서 학습할 수 있는 반면, 코딩, 수학, SQL과 같은 보다 복잡한 메트릭은 나중에 효과적으로 학습할 수 있다는 것을 배웠습니다. 훈련.

이는 단순한 것부터 어려운 것까지 점차적으로 능력을 습득하는 인간의 생명 교육에 비유할 수 있습니다. 따라서 Arctic은 각 단계마다 서로 다른 데이터 구성을 갖는 3단계 커리큘럼을 사용합니다. 첫 번째 단계는 일반 기술(1T 토큰)에 중점을 두고 마지막 두 단계는 기업 기술(1.5T 및 1T 토큰)에 중점을 둡니다.
仅需Llama3 1/17的训练成本,Snowflake开源128x3B MoE模型
추론 효율성
仅需Llama3 1/17的训练成本,Snowflake开源128x3B MoE模型
추론 효율성은 모델 효율성의 중요한 측면이기도 하며, 이는 모델이 실제로 저렴한 비용으로 배포될 수 있는지 여부에 영향을 미칩니다.

Arctic은 다른 오픈 소스 회귀 MoE 모델보다 더 많은 전문가와 전체 매개변수를 사용하여 MoE 모델 크기의 도약을 나타냅니다. 따라서 Snowflake에는 Arctic이 효율적으로 추론할 수 있도록 몇 가지 혁신적인 아이디어가 필요합니다.

a) 배치 크기 1과 같은 작은 배치 크기를 사용하는 대화형 추론에서는 MoE 모델의 추론 대기 시간이 모든 읽기로 제한됩니다. 활성 매개변수 시간, 추론은 메모리 대역폭에 의해 제한됩니다. 이 배치 크기에서 Arctic(17B 활성 매개변수)의 메모리 읽기 볼륨은 Code-Llama 70B의 1/4, Mixtral 8x22B(44B 활성 매개변수)의 2/5에 불과하므로 추론 속도가 더 빠릅니다.

b) 정방향 패스당 수천 개의 토큰과 같이 배치 크기가 크게 증가하면 Arctic은 제한된 메모리 대역폭에서 계산적으로 제한된 것으로 이동하며 추론은 ​​각 토큰의 활성 매개 변수에 의해 제한됩니다. 이와 관련하여 Arctic은 CodeLlama 70B 및 Llama 3 70B의 계산 노력의 1/4입니다.

Arctic의 적은 수의 활성 매개변수와 일치하는 컴퓨팅 바인딩 추론과 높은 처리량을 달성하려면 더 큰 배치 크기가 필요합니다. 이를 달성하려면 이를 지원할 수 있는 충분한 KV 캐시와 모델의 거의 500B 매개변수를 저장할 수 있는 충분한 메모리가 필요합니다.

어렵기는 하지만 Snowflake는 추론을 위해 두 개의 노드를 사용하고 FP8 가중치, 분할 퓨즈 및 연속 일괄 처리, 노드 내 텐서 병렬 처리, 노드 간 파이프라인 병렬 처리와 같은 시스템 최적화를 결합하여 이를 달성합니다.

연구팀은 NVIDIA와 긴밀히 협력하여 TensorRT-LLM이 구동하는 NVIDIA NIM 마이크로서비스에 대한 추론을 최적화했습니다. 동시에 연구팀은 vLLM 커뮤니티와도 협력하고 있으며 내부 개발 팀은 앞으로 몇 주 안에 기업 사용 사례에 대한 Arctic의 효율적인 추론을 구현할 것입니다.

참조 링크: https://www.snowflake.com/blog/arctic-open-efficient-foundation-언어-models-snowflake/

위 내용은 Llama3의 훈련 비용이 1/17에 불과한 Snowflake 오픈 소스 128x3B MoE 모델의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

Apache에서 CGI 디렉토리를 설정하는 방법 Apache에서 CGI 디렉토리를 설정하는 방법 Apr 13, 2025 pm 01:18 PM

Apache에서 CGI 디렉토리를 설정하려면 다음 단계를 수행해야합니다. "CGI-BIN"과 같은 CGI 디렉토리를 작성하고 Apache 쓰기 권한을 부여하십시오. Apache 구성 파일에 "Scriptalias"지시록 블록을 추가하여 CGI 디렉토리를 "/cgi-bin"URL에 매핑하십시오. Apache를 다시 시작하십시오.

Apache의 데이터베이스에 연결하는 방법 Apache의 데이터베이스에 연결하는 방법 Apr 13, 2025 pm 01:03 PM

Apache는 데이터베이스에 연결하여 다음 단계가 필요합니다. 데이터베이스 드라이버 설치. 연결 풀을 만들려면 Web.xml 파일을 구성하십시오. JDBC 데이터 소스를 작성하고 연결 설정을 지정하십시오. JDBC API를 사용하여 Connections, 명세서 작성, 매개 변수 바인딩, 쿼리 또는 업데이트 실행 및 처리를 포함하여 Java 코드의 데이터베이스에 액세스하십시오.

Apache80 포트가 점유 된 경우해야 할 일 Apache80 포트가 점유 된 경우해야 할 일 Apr 13, 2025 pm 01:24 PM

Apache 80 포트가 점유되면 솔루션은 다음과 같습니다. 포트를 차지하고 닫는 프로세스를 찾으십시오. 방화벽 설정을 확인하여 Apache가 차단되지 않았는지 확인하십시오. 위의 방법이 작동하지 않으면 Apache를 재구성하여 다른 포트를 사용하십시오. Apache 서비스를 다시 시작하십시오.

Apache 버전을 보는 방법 Apache 버전을 보는 방법 Apr 13, 2025 pm 01:15 PM

APACHE 서버에서 버전을 보는 3 가지 방법이 있습니다. 명령 줄 (APACHECTL -V 또는 APACHE2CTL -V)을 통해 서버 상태 페이지 (http : // & lt; 서버 IP 또는 도메인 이름 & gt;/server -status)를 확인하거나 APACHE 구성 파일 (ServerVersion : Apache/& lt; 버전 번호 & gt;).

CentOS HDFS 구성을 최적화하는 방법 CentOS HDFS 구성을 최적화하는 방법 Apr 14, 2025 pm 07:15 PM

CentOS에서 HDFS 성능 향상 : CentOS에서 HDFS (Hadoop 분산 파일 시스템)를 최적화하기위한 포괄적 인 최적화 안내서에는 하드웨어, 시스템 구성 및 네트워크 설정에 대한 포괄적 인 고려가 필요합니다. 이 기사는 HDFS 성능을 향상시키는 데 도움이되는 일련의 최적화 전략을 제공합니다. 1. 하드웨어 업그레이드 및 선택 리소스 확장 : 서버의 CPU, 메모리 및 저장 용량을 최대한 많이 늘립니다. 고성능 하드웨어 : 고성능 네트워크 카드 및 스위치를 채택하여 네트워크 처리량을 개선합니다. 2. 시스템 구성 미세 조정 커널 매개 변수 조정 : TCP 연결 번호, 파일 핸들 번호 및 메모리 관리와 같은 커널 매개 변수를 최적화하기 위해 /etc/sysctl.conf 파일을 수정합니다. 예를 들어 TCP 연결 상태 및 버퍼 크기를 조정하십시오

Apache 버전을 보는 방법 Apache 버전을 보는 방법 Apr 13, 2025 pm 01:00 PM

Apache 버전을 보는 방법? Apache Server 시작 : Sudo Service Apache2를 사용하여 서버를 시작하십시오. 버전 번호보기 : 다음 방법 중 하나를 사용하여 버전을 봅니다. 명령 줄 : APACHE2 -V 명령을 실행하십시오. 서버 상태 페이지 : 웹 브라우저에서 Apache 서버의 기본 포트 (일반적으로 80)에 액세스하고 버전 정보가 페이지 하단에 표시됩니다.

Apache의 서버 이름 이상을 삭제하는 방법 Apache의 서버 이름 이상을 삭제하는 방법 Apr 13, 2025 pm 01:09 PM

Apache에서 추가 ServerName 지시문을 삭제하려면 다음 단계를 수행 할 수 있습니다. 추가 ServerName Directive를 식별하고 삭제하십시오. Apache를 다시 시작하여 변경 사항이 적용됩니다. 구성 파일을 확인하여 변경 사항을 확인하십시오. 서버를 테스트하여 문제가 해결되었는지 확인하십시오.

Apache를 시작할 수없는 문제를 해결하는 방법 Apache를 시작할 수없는 문제를 해결하는 방법 Apr 13, 2025 pm 01:21 PM

다음과 같은 이유로 Apache가 시작할 수 없습니다. 구성 파일 구문 오류. 다른 응용 프로그램 포트와 충돌합니다. 권한 문제. 기억이 없습니다. 프로세스 교착 상태. 데몬 실패. Selinux 권한 문제. 방화벽 문제. 소프트웨어 충돌.

See all articles