최초의 1000억 모델 압축 알고리즘인 SparseGPT가 출시되어 높은 정확도를 유지하면서 컴퓨팅 전력 비용을 절감합니다.
2020년 GPT-3 등장 이후 ChatGPT의 인기로 인해 GPT 제품군의 생성적 대규모 언어 모델이 다시 한 번 주목을 받았으며 다양한 작업에서 강력한 성능을 보여왔습니다.
그러나 모델의 규모가 크면 컴퓨팅 비용도 증가하고 배포 난이도도 높아집니다.
예를 들어 GPT‑175B 모델은 반정밀도(FP16) 형식으로 총 320GB 이상의 저장 공간을 차지하며 추론 중에는 80GB 저장 공간이 있는 A100 GPU가 5개 이상 필요합니다.
모델 압축은 현재 대형 모델의 계산 비용을 줄이기 위해 일반적으로 사용되는 방법이지만, 지금까지 거의 모든 기존 GPT 압축 방법은 양자화, 즉 개별 가중치를 줄이는 데 중점을 두고 수치 표현의 정밀도를 높였습니다.
또 다른 모델 압축 방법은 개별 가중치(구조화되지 않은 가지치기)부터 가중치 행렬의 전체 행/열(구조화된 가지치기)과 같은 더 세분화된 구성 요소에 이르기까지 네트워크 요소를 제거하는 가지치기입니다. 이 접근 방식은 비전 및 소규모 언어 모델에서는 잘 작동하지만 정확성이 손실되어 정확성을 복원하기 위해 모델을 광범위하게 재교육해야 하므로 GPT와 같은 대규모 모델의 경우 비용이 다시 너무 비쌉니다. . 재교육 없이 모델을 압축할 수 있는 몇 가지 단발성 가지치기 방법이 있지만 이는 너무 계산 집약적이며 수십억 개의 매개변수가 있는 모델에 적용하기 어렵습니다.
그럼 GPT-3 크기의 대형 모델의 경우 정확도 손실을 최소화하고 계산 비용을 줄이면서 정확하게 정리할 수 있는 방법이 있을까요?
최근 오스트리아 과학 기술 연구소(ISTA)의 두 연구원인 Elias Frantar와 Dan Alistarh는 100억~1000억 매개변수의 모델 규모에 대해 처음으로 정확한 단일 샷 가지치기를 제안하는 연구에 협력했습니다. . 방법SparseGPT.
문서 주소: https://arxiv.org/pdf/2301.00774.pdf
SparseGPT는 재교육 없이 한 단계로 GPT 시리즈 모델을 50% 희소성으로 정리할 수 있습니다. 공개적으로 사용 가능한 가장 큰 모델인 GPT-175B는 단일 GPU를 사용하여 단 몇 시간 만에 이러한 가지치기 작업을 수행합니다.
또한 SparseGPT는 매우 정확하며 정확도 손실을 최소화할 수 있습니다. 예를 들어 현재 가장 큰 오픈 소스 모델 OPT‑175B 및 BLOOM‑176B에서 SparseGPT를 실행하면 정확도 손실을 최소화하면서 60%의 희소성을 달성할 수 있습니다.
Electric Drive SparseGPT Algorithm
최근 몇 년간 초대형 모델에 대한 연구가 매우 활발하지만, 지금까지 매우 정확한 고수준 희소화를 달성할 수 있는 100억 개 이상의 매개변수를 갖춘 모델은 없습니다.
기존 방법은 계산 비용이 너무 높습니다. 현재 가장 정확한 사후 학습 방법인 OBC를 예로 들면, 10억 매개변수 모델의 경우 압축하는 데 1시간 이상이 걸립니다. 가장 빠른 것으로 알려진 사후 학습 방법인 AdaPrune도 10억 매개변수 모델을 정리하는 데 몇 분이 걸리며, 이 속도로 GPT-3 규모의 모델에는 수백 시간(주)의 계산이 필요한 것으로 추정됩니다.
점진적 크기 가지치기와 같은 대부분의 기존 가지치기 방법은 정확성을 복원하기 위해 가지치기 단계 후 광범위한 재훈련이 필요하며 GPT 규모 모델은 일반적으로 광범위한 재훈련이 필요합니다. 훈련이나 미세 조정에 필요한 계산량과 매개변수 조정이 재훈련을 어렵게 만듭니다. 기반 방법을 적용하기가 어렵습니다. 따라서 이러한 점진적 가지치기 접근 방식을 GPT 규모에 적용하는 것은 불가능합니다.
ISTA 팀의 이 작업은 SparseGPT 방법을 제안합니다. 이 방법은 단일 GPU에서 1000억 개가 넘는 매개변수가 있는 모델을 몇 시간 안에 실행할 수 있으며 모델을 희소성 수준 50%로 잘라낼 만큼 정확합니다. 60%, 성능이 크게 저하되지 않습니다.
SparseGPT의 핵심에는 반구조적(2:4 및 4:8) 모드로 일반화하고 기존 가중치 양자화 방법과 호환되는 새로운 대규모 근사 희소 회귀 알고리즘이 있습니다.
점진적 규모 가지치기와 같은 대부분의 기존 가지치기 방법은 정확성을 복원하기 위해 가지치기 단계 이후 광범위한 재훈련이 필요하며, GPT 규모 모델은 종종 훈련 또는 미세 조정을 위해 많은 양의 계산 및 매개변수 조정이 필요합니다. 이는 재훈련 기반 방법을 적용하기 어렵게 만듭니다. 따라서 이러한 점진적 가지치기 접근 방식을 GPT 규모에 적용하는 것은 불가능합니다.
SparseGPT는 미세 조정을 수행하지 않기 때문에 GPT 규모 모델에 대한 사후 학습 방법입니다.
현재 ZeroQuant, LLM.int8(), nuQmm 등 GPT 규모 모델의 사후 학습을 정량화하는 방법은 많지만 비정상적인 특징이 존재하기 때문에 활성화 양자화가 어려울 수 있습니다. GPTQ는 대략적인 2차 정보를 활용하여 가중치를 가장 큰 모델에 적합한 2-4비트로 정확하게 양자화하며, 효율적인 GPU 코어와 결합하면 2-5배의 추론 가속이 가능합니다.
그러나 GPTQ는 양자화보다는 희소화에 중점을 두기 때문에 SparseGPT는 양자화 방법을 보완하는 것이며, 두 가지를 조합하여 적용할 수 있습니다.
또한 SparseGPT는 구조화되지 않은 가지치기 외에도 Ampere NVIDIA GPU에서 2:4 비율로 가속을 달성할 수 있는 인기 있는 n:m 스파스 형식과 같은 반구조적 패턴에도 적합합니다.
SparseGPT: 높은 희소화 수준, 낮은 정확도 손실
SparseGPT 압축 모델의 효과를 평가한 결과, 연구진은 대규모 언어 모델의 희소화 어려움은 모델 크기에 비례한다는 것을 발견했는데, 이는 기존 비교와는 다릅니다. Magnitude Pruning 방법을 사용하면 SparseGPT를 사용하여 정확도 손실을 최소화하면서 더 높은 수준의 모델 희소성을 달성할 수 있습니다.
연구원들은 PyTorch에 SparseGPT를 구현하고 HuggingFace의 Transformers 라이브러리를 사용하여 80GB 메모리를 갖춘 단일 NVIDIA A100 GPU에서 모델과 데이터 세트를 모두 처리했습니다. 이러한 실험 조건에서 SparseGPT는 약 4시간 만에 1,750억 매개변수 모델의 완전한 희소화를 달성할 수 있습니다.
연구원들은 Transformer 레이어를 순차적으로 희소화하여 메모리 요구 사항을 크게 줄이고 모든 레이어를 병렬로 처리하는 정확도를 크게 향상시킵니다. 모든 압축 실험은 미세 조정 없이 한 번에 수행되었습니다.
평가 대상은 주로 OPT 시리즈 모델이며, 여기에는 1억 2,500만 ~ 1,750억 개의 매개변수로 구성된 모델 세트가 포함되어 있어 모델 크기에 따른 가지치기의 확장 성능을 쉽게 관찰할 수 있습니다. 또한 BLOOM의 1,760억 개의 매개변수 변형이 분석되었습니다.
데이터 세트 및 평가 지표 측면에서 실험은 원본 WikiText2 테스트 세트의 복잡성을 사용하여 SparseGPT 압축 방법의 정확성을 평가하는 동시에 해석 가능성을 높이기 위해 일부 ZeroShot 정확도 지표를 사용합니다. 또한 사용됩니다. 또한 평가에서는 절대 수치보다는 조밀한 모델 기준선을 기준으로 한 희소 모델의 정확성에 중점을 둡니다.
연구원들은 전체 OPT 모델 시리즈(표준 임베딩 및 헤더 제외)의 모든 선형 레이어를 정리하여 각각 전체 4:8 또는 전체 2:4의 구조화되지 않은 희소성을 달성했으며 결과는 다음과 같습니다. 아래에 표시됩니다.
진폭 가지치기를 사용하여 압축한 모델의 정확도는 모든 크기에서 좋지 않으며, 모델이 클수록 정확도가 떨어지는 것을 알 수 있습니다.
SparseGPT를 사용하여 압축한 모델의 추세는 다릅니다. 27억 개의 매개변수에서는 Perplexity 손실이 1포인트 미만이고, 660억 개의 매개변수 미만에서는 손실이 없습니다. 또한 밀도가 높은 모델의 기준선에 비해 매우 큰 모델 크기에서 정확도가 향상됩니다.
큰 모델은 희소화하기 쉽습니다.
일반적인 추세는 더 큰 모델이 희소화하기 쉽다는 것입니다. 고정된 희소성 수준에서는 모델 크기가 증가함에 따라 희소 모델의 상대적 정확도가 감소합니다. . 저자는 이것이 더 높은 수준의 매개변수화와 전반적으로 더 큰 잡음에 대한 내성 때문일 수 있다고 추측합니다.
최대 규모의 조밀한 모델 기준과 비교하여 SparseGPT를 사용하여 모델을 4:8 및 2:4 희소성으로 압축할 때 복잡성 증가는 각각 0.11 및 0.39에 불과합니다. 이 결과는 실제로 2배의 속도 향상을 달성할 수 있으며 상용 NVIDIA Ampere GPU는 이미 2:4 희소성을 지원한다는 것을 의미합니다.
저자는 20억 모델인 OPT-175B와 BLOOM-176B의 성능과 SparseGPT를 사용하여 발생하는 희소성 정도 사이의 관계를 연구했습니다. 그 결과는 아래 그림과 같습니다.
OPT-175B 모델의 경우 진폭 가지치기를 통해 최대 10%의 희소성을 달성할 수 있으며 그 뒤에는 큰 정확도 손실이 따르는 것을 볼 수 있습니다. SparseGPT는 또한 복잡성이 증가하면서 60%의 희소성을 달성할 수 있습니다.
BLOOM-176B 모델의 경우 진폭 가지치기를 사용하면 상당한 정확도 손실 없이 30% 희소성을 달성할 수 있는 반면, SparseGPT는 1.66배 향상된 50% 희소성을 달성할 수 있습니다. 더욱이 80% 희소성에서 SparseGPT를 사용하여 압축된 모델의 복잡도는 여전히 합리적인 수준으로 유지되지만 진폭 가지치기가 OPT의 희소성 40% 및 BLOOM의 희소성 60%에 도달하면 당혹성은 이미 100을 초과합니다.
또한 SparseGPT는 이러한 모델에서 약 1,000억 개의 가중치를 제거할 수 있으며 모델 정확도에 미치는 영향은 제한적입니다.
마지막으로, 이 연구는 Transformer를 기반으로 한 대규모 사전 훈련 모델이 재훈련 없이 매우 낮은 정확도 손실로 일회성 가중치 가지치기를 통해 높은 희소성으로 압축될 수 있음을 처음으로 보여줍니다.
SparseGPT의 방법이 로컬이라는 점은 주목할 가치가 있습니다. 각 가지치기 단계 후에 각 레이어의 입력-출력 관계를 보존하는 것을 목표로 가중치 업데이트를 수행하며 이러한 업데이트는 상황에 따라 계산된 전역 그라데이션 정보 없이 수행됩니다. . 따라서 대규모 GPT 모델의 높은 수준의 매개변수화를 통해 이 접근 방식을 통해 사전 훈련된 조밀한 모델의 "이웃 모델" 중에서 희박하고 정확한 모델을 직접 식별할 수 있는 것으로 보입니다.
또한 실험에 사용된 정확도 지표(perplexity)가 매우 민감하기 때문에 생성된 희소 모델 출력은 밀집 모델의 출력과 밀접한 관련이 있는 것으로 보입니다.
이 연구는 대형 모델의 컴퓨팅 성능 한계를 완화하는 데 큰 긍정적인 의미가 있습니다. 향후 작업 방향 중 하나는 대형 모델의 미세 조정 메커니즘을 연구하여 동시에 SparseGPT 방법을 확장하는 것입니다. 모델 교육을 적용하면 대규모 모델을 교육하는 데 드는 계산 비용이 줄어듭니다.
위 내용은 최초의 1000억 모델 압축 알고리즘인 SparseGPT가 출시되어 높은 정확도를 유지하면서 컴퓨팅 전력 비용을 절감합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











어제 '인간의 길을 대체하는 AI 레벨맵'이라는 흥미로운 사진을 봤습니다. 그림에서 볼 수 있듯이 게임은 E1부터 E8+까지 6가지 레벨로 구분됩니다. 우리는 인공지능(AI)이 다양한 분야에서 인간의 응용 프로그램을 대체하고 있음을 그림에서 볼 수 있습니다. 인공지능의 적용 분야 경로는 내결함성 비율에 따라 결정됩니다. 간단히 말해서, 여기서 오류 허용 오차는 시행착오의 비용을 의미합니다. AI는 점차적으로 오류 허용 비율이 높거나 낮은 산업을 대체하고 점차적으로 인간 직업을 "대체"할 것입니다. 과거에 우리는 창의적인 작업이 인간의 사고에 의존하고 쉽게 대체되지 않는다고 종종 생각했습니다. 그러나 인공지능의 발달로 인해 이러한 견해는 완전히 옳은 것 같지는 않다. 창의적인 직업에는 정해진 답이 없는 경우가 많습니다

David Linsigao 작성 | Yanzheng 51CTO Technology Stack에서 제작한 제품(WeChat ID: blog51cto) 기술 분야에는 암묵적인 규칙이 있습니다. 모든 사람은 다른 사람의 기술을 사용하는 것을 좋아합니다. 그러나 많은 기업에서 생성적 AI는 이러한 틀에 맞지 않는 것 같습니다. 모든 조직은 사내에서 맞춤형 생성 AI 플랫폼을 구축할지 아니면 AI 공급업체(종종 클라우드 서비스로 제공)에서 사전 패키지된 솔루션을 구매할지 여부와 같은 중요한 선택에 직면합니다. 이상하지만 그 이유가 여러분을 놀라게 할 수도 있습니다. 엔터프라이즈 genAI 전략을 다시 생각하게 만들 수도 있습니다. 1. 완벽한 사용자 정의 및 제어 콘텐츠를 다음과 같이 다시 작성하세요.

2020년 GPT-3이 등장한 이후 ChatGPT의 인기로 인해 GPT 제품군의 생성적 대규모 언어 모델이 다시 한 번 주목을 받았으며 다양한 작업에서 강력한 성능을 보여주었습니다. 그러나 모델의 규모가 크면 계산 비용도 증가하고 배포 난이도도 높아집니다. 예를 들어, GPT‑175B 모델은 반정밀도(FP16) 형식으로 총 저장 공간이 최소 320GB이므로 추론을 위해 80GB 저장 공간을 갖춘 A100 GPU가 5개 이상 필요합니다. 모델 압축은 현재 대형 모델의 계산 비용을 줄이기 위해 일반적으로 사용되는 방법이지만 현재까지 거의 모든 기존

hxw 크기의 그리드가 있다고 가정합니다. 그리드의 각 셀에는 양의 정수가 포함되어 있습니다. 이제 특정 셀(p, q)(p는 행 번호, q는 열 번호)에 길찾기 로봇이 배치되어 해당 셀(i, j)로 이동할 수 있습니다. 이동 작업의 특정 비용은 |p-i|+|q-j|와 같습니다. 이제 다음 속성을 가진 q개의 여행이 있습니다. 각 여행에는 두 가지 값(x, y)과 공통 값 d가 있습니다. 로봇은 x 값을 가진 셀에 배치된 다음 x+d 값을 가진 다른 셀로 이동합니다. 그런 다음 x+d+d 값을 가진 다른 셀로 이동합니다. 이 과정은 로봇이 y보다 크거나 같은 값을 갖는 셀에 도달할 때까지 계속됩니다. y-x는 d의 배수입니다

다음 기술을 사용하여 X를 곱하거나 숫자를 1에서 N으로 오른쪽 회전하는 가장 저렴한 방법을 찾을 수 있습니다. 초기 최소 비용을 모니터링하려면 비용 변수를 만듭니다. N에서 1로 갈 때 각 단계에서 N이 X로 나누어지는지 확인합니다. 그렇다면 N을 X로 나누어 업데이트하고 프로세스를 계속합니다. N이 X로 나누어지지 않으면 N의 숫자를 오른쪽으로 반복하여 값을 늘립니다. 이 경우 비용 변수를 추가하십시오. 최종 비용 변수 값은 1을 N으로 바꾸는 데 필요한 최소 금액이 됩니다. 알고리즘은 숫자 회전이나 곱셈을 사용하여 원하는 변환을 수행하는 데 필요한 최소 작업을 효율적으로 결정합니다. 사용된 방법 순진한 접근 방식: 숫자의 오른쪽 회전 효율적인 방법: X로 곱하기 간단한 방법: 숫자의 오른쪽 회전 순진한 접근 방식은 숫자 1부터 시작하여 반복하는 것입니다.

전 세계적으로 환경 보호에 대한 인식이 지속적으로 높아짐에 따라 다양한 국가에서 신에너지 자동차 개발을 옹호하면서 전기 자동차가 자동차 시장의 하이라이트로 자리매김하고 있습니다. 그러나 전기 자동차는 탄소 배출을 줄이고 차량 비용을 낮추는 데 상당한 이점이 있지만 문제에 직면합니다. 전기 자동차의 타이어는 더 비쌀 뿐만 아니라 마모되기 쉽습니다. 이 문제는 전기 자동차용 타이어가 기존 타이어와 다르며 더 높은 성능 표준을 충족해야 하는 이유를 전문가들이 설명하면서 광범위한 관심을 끌었습니다. 전기차는 무거워지기 때문에 타이어의 하중 지지력과 구조적 강도가 높아야 하므로 설계 및 제조 비용이 증가합니다. 또한, 전기차는 대개 가속력과 제동력이 강하기 때문에 타이어의 접지력과 내열성이 좋아야 하고, 이로 인해 제조 비용도 높아지게 됩니다.

비용 및 가격 요소: 인스턴스 가격: 사용 시간 및 기능 구성에 따라 청구됩니다. 메모리 및 CPU 사용량: 사용량이 많을수록 비용도 높아집니다. 네트워크 트래픽: 다른 서비스와의 통신에는 요금이 부과됩니다. 스토리지: 영구 스토리지는 별도로 청구됩니다. 실제 사례: 10,000번 호출되고 100밀리초 동안 지속되는 함수의 비용은 약 US$0.000067입니다(인스턴스 가격은 US$0.000055, 네트워크 트래픽은 US$0.000012).

외신 보도에 따르면 메타의 최고기술책임자(CTO)는 회사가 애플의 비전 프로에 필적하는 기기 개발을 포기했다고 거의 확인했다. MetaLaJolla VisionPro 출시에 앞서 Meta는 가상 현실 및 혼합 현실 헤드셋에 대한 4개년 개발 계획을 발표했습니다. 그 중 중요한 부분은 VisionPro의 주요 경쟁자가 될 수 있는 내부 코드명 LaJolla라는 제품을 개발하는 것이었습니다. 메타는 2023년 11월 라졸라 개발을 시작했으나 비용 문제로 인해 2024년 8월 중순쯤 프로젝트를 중단한 것으로 파악된다. 이번 결정은 메타 CEO 저커버그와 CTO 앤드루 보스워스가 내린 것으로 전해진다.
