4090 생성기: A100 플랫폼과 비교하면 토큰 생성 속도는 18% 미만이며 추론 엔진에 제출하는 것이 뜨거운 논의를 불러일으켰습니다.
PowerInfer는 소비자급 하드웨어에서 AI 실행 효율성을 향상시킵니다.

PowerInfer 로컬 고급 LLM 추론 프레임워크 llama.cpp와 비교하여 단일 RTX 4090(24G)에서 Falcon(ReLU)-40B-FP16 모델을 실행하면 11배 이상의 가속을 달성할 뿐만 아니라 모델 정확도도 유지됩니다
PowerInfer는 LLM의 온프레미스 배포를 위해 설계된 고속 추론 엔진입니다. 다중 전문가 시스템(MoE)과 달리 PowerInfer는 LLM 추론의 높은 지역성을 완전히 활용하는 GPU-CPU 하이브리드 추론 엔진을 교묘하게 설계했습니다.
자주 활성화되는 뉴런(예: 핫 활성화)을 GPU에 미리 로드합니다. 빠른 액세스를 위해 자주 활성화되지 않는 뉴런 (즉, 콜드 활성화)는 CPU에서 계산됩니다. 작동 방식은 다음과 같습니다
이 방법을 사용하면 GPU 메모리 요구 사항과 CPU와 GPU 간의 데이터 전송량을 크게 줄일 수 있습니다
프로젝트 링크: https://github.com/SJTU-IPADS/ PowerInfer
-
문서 링크: https://ipads.se.sjtu.edu.cn/_media/publications/powerinfer-20231219.pdf
PowerInfer는 단일 소비자급 GPU가 장착된 PC에서 LLM을 고속으로 실행할 수 있습니다. 이제 사용자는 Llama 2 및 Faclon 40B와 함께 PowerInfer를 사용할 수 있으며 Mistral-7B도 곧 지원될 예정입니다.
PowerInfer는 하루 만에 2K 별을 획득했습니다
이 연구를 본 후 네티즌들은 흥분을 표현했습니다. 이제 단일 카드 4090으로 더 이상 꿈이 아닌 175B의 대형 모델을 실행할 수 있습니다.
PowerInfer 아키텍처
PowerInfer 설계의 핵심은 뉴런 활성화의 거듭제곱 법칙 분포를 특징으로 하는 LLM 추론에 내재된 높은 수준의 지역성을 활용하는 것입니다. 이 분포는 핫 뉴런이라고 불리는 뉴런의 작은 하위 집합이 입력 전반에 걸쳐 일관되게 활성화되는 반면, 콜드 뉴런의 대부분은 특정 입력에 따라 달라짐을 나타냅니다. PowerInfer는 이 메커니즘을 활용하여 GPU-CPU 하이브리드 추론 엔진을 설계합니다.
오프라인 및 온라인 구성 요소를 포함하여 PowerInfer의 아키텍처 개요를 보여주는 아래 그림 7을 참조하세요. 오프라인 구성 요소는 핫 뉴런과 콜드 뉴런을 구별하면서 LLM의 활성화 희소성을 처리하는 역할을 합니다. 온라인 단계에서 추론 엔진은 두 가지 유형의 뉴런을 모두 GPU와 CPU에 로드하고 런타임에 짧은 대기 시간으로 LLM 요청을 처리합니다
그림 8은 PowerInfer의 작동 방식을 보여줍니다. 이는 GPU와 CPU 처리 뉴런 간의 레이어를 조정합니다. PowerInfer는 오프라인 데이터를 통해 뉴런을 분류하여 활성 뉴런(예: 인덱스 3, 5, 7)을 GPU 메모리에 할당하고 기타 뉴런을 CPU 메모리에 할당합니다
입력이 수신되면 예측기는 현재 계층에서 활성화될 가능성이 있는 뉴런을 식별합니다. 오프라인 통계 분석을 통해 식별된 열 활성화 뉴런은 런타임 시 실제 활성화 동작과 일치하지 않을 수 있다는 점에 유의해야 합니다. 예를 들어, 뉴런 7은 열적으로 활성화된 것으로 표시되어 있지만 실제로는 그렇지 않습니다. 그런 다음 CPU와 GPU는 이미 활성화된 뉴런을 처리하고 그렇지 않은 뉴런은 무시합니다. GPU는 뉴런 3과 5를 계산하는 역할을 하고, CPU는 뉴런 4를 처리합니다. 뉴런 4의 계산이 완료되면 결과 통합을 위해 출력이 GPU로 전송됩니다.
원래 의미를 변경하지 않고 콘텐츠를 다시 작성하려면 언어를 중국어로 다시 작성해야 합니다. 원래 문장이 나타날 필요는 없습니다
이 연구는 다양한 매개변수를 사용하여 OPT 모델을 사용하여 수행되었습니다. 원래 의미를 변경하지 않고 내용을 다시 작성하려면 언어를 중국어로 다시 작성해야 합니다. 원문을 제시할 필요가 없으며 매개변수 범위는 6.7B ~ 175B이며 Falcon(ReLU)-40B 및 LLaMA(ReGLU)-70B 모델도 포함되어 있습니다. 175B 매개변수 모델의 크기가 GPT-3 모델과 비슷하다는 점은 주목할 가치가 있습니다.
이 기사에서는 PowerInfer를 최첨단 기본 LLM 추론 프레임워크인 llama.cpp와 비교합니다. 비교를 용이하게 하기 위해 이 연구에서는 llama.cpp를 확장하여 OPT 모델을 지원했습니다
이 기사의 초점이 낮은 대기 시간 설정에 있다는 점을 고려하면 평가 지표는 수 측면에서 엔드투엔드 생성 속도를 채택합니다. 정량화를 위해 초당 생성된 토큰(토큰/초)
이 연구에서는 먼저 배치 크기 1
NVIDIA RTX 4090을 사용하는 PC-High에서 PowerInfer와 llama.cpp의 엔드투엔드 추론 성능을 비교합니다. 그림 10 다양한 모델과 입력 및 출력 구성의 생성 속도를 보여줍니다. 평균적으로 PowerInfer는 8.32 토큰/초, 최대 16.06 토큰/초의 생성 속도를 달성합니다. 이는 llama.cpp보다 훨씬 우수하고, llama.cpp보다 7.23배 더 높으며, Falcon-40B
보다 11.69배 더 높습니다. 후속 출력 토큰 수가 증가함에 따라 생성 단계가 전체 추론 시간에서 더 중요한 역할을 하기 때문에 PowerInfer의 성능 이점이 더욱 분명해집니다. 이 단계에서는 CPU와 GPU 모두에서 소수의 뉴런이 활성화되므로 llama.cpp에 비해 불필요한 계산이 줄어듭니다. 예를 들어 OPT-30B의 경우 생성된 토큰당 약 20%의 뉴런만 활성화되며, 대부분은 GPU에서 처리됩니다. 이는 그림에서 PowerInfer 뉴런 인식 추론
의 이점입니다. 11 그림에서 볼 수 있듯이 PowerInfer는 PC-Low에서 실행했음에도 불구하고 평균 5.01배, 최대 7.06배의 속도 향상으로 상당한 성능 향상을 달성했습니다. 그러나 이러한 개선 사항은 주로 PC-Low의 11GB GPU 메모리 제한으로 인해 PC-High에 비해 작습니다. 이 제한은 특히 약 30B 이상의 매개변수가 있는 모델의 경우 GPU에 할당할 수 있는 뉴런 수에 영향을 미치므로 많은 수의 활성화된 뉴런을 처리하기 위해 CPU에 대한 의존도가 높아집니다.
그림 12는 PowerInfer 및 뉴런을 보여줍니다. llama.cpp 사이의 CPU와 GPU 간의 부하 분산. 특히 PC-High에서 PowerInfer는 GPU의 뉴런 로드 점유율을 평균 20%에서 70%로 크게 늘렸습니다. 이는 GPU가 활성화된 뉴런의 70%를 처리한다는 것을 보여줍니다. 그러나 11GB 2080Ti GPU에서 60GB 모델을 실행하는 등 모델의 메모리 요구 사항이 GPU 용량을 훨씬 초과하는 경우 GPU의 뉴런 부하가 42%로 감소합니다. 이러한 감소는 활성화된 모든 뉴런을 수용하기에는 충분하지 않은 GPU의 제한된 메모리로 인해 발생합니다. 따라서 CPU는 뉴런의 하위 집합을 계산해야 합니다.
그림 13은 PowerInfer가 INT4 양자화 압축을 사용하여 LLM을 효과적으로 지원한다는 것을 보여줍니다. PC-High에서 PowerInfer의 평균 응답 속도는 13.20 토큰/초이며, 최대 응답 속도는 29.08 토큰/초입니다. llama.cpp와 비교하면 평균 속도 향상은 2.89배이고 최대 속도 향상은 4.28배입니다. PC-Low에서 평균 속도 향상은 5.01x이고 최대 속도 향상은 8.00x입니다. 양자화로 인해 메모리 요구 사항이 줄어들기 때문에 PowerInfer는 더 큰 모델을 보다 효율적으로 관리할 수 있습니다. 예를 들어 PC-High에서 OPT-175B 모델을 사용하려면 원래 의미를 변경하지 않고 내용을 다시 작성하기 위해 언어를 중국어로 다시 작성해야 했습니다. 원래 문장에 나타날 필요 없이 PowerInfer는 초당 거의 두 개의 토큰에 도달하여 llama.cpp를 2.66배 초과합니다.
마지막으로 이 연구에서는 다양한 배치 크기에서 PowerInfer의 엔드투엔드 추론 성능도 평가합니다. 그림 14에서 볼 수 있듯이 배치 크기가 32 미만인 경우 PowerInfer는 라마에 비해 평균 6.08배의 성능 향상을 보이는 등 상당한 이점을 보여줍니다. 배치 크기가 증가하면 PowerInfer가 제공하는 속도 향상은 감소합니다. 그러나 배치 크기를 32로 설정하더라도 PowerInfer는 여전히 상당한 속도 향상을 유지합니다
참조 링크: https://weibo.com/1727858283/NxZ0Ttdnz
원본 논문을 확인하여 알아보십시오. 더 많은 콘텐츠
위 내용은 4090 생성기: A100 플랫폼과 비교하면 토큰 생성 속도는 18% 미만이며 추론 엔진에 제출하는 것이 뜨거운 논의를 불러일으켰습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











역시 Tusheng 영상이지만 PaintsUndo는 다른 경로를 택했습니다. ControlNet 작성자 LvminZhang이 다시 살기 시작했습니다! 이번에는 회화 분야를 목표로 삼고 있습니다. 새로운 프로젝트인 PaintsUndo는 출시된 지 얼마 되지 않아 1.4kstar(여전히 상승세)를 받았습니다. 프로젝트 주소: https://github.com/lllyasviel/Paints-UNDO 이 프로젝트를 통해 사용자는 정적 이미지를 입력하고 PaintsUndo는 자동으로 라인 초안부터 완성품 따라가기까지 전체 페인팅 과정의 비디오를 생성하도록 도와줍니다. . 그리는 과정에서 선의 변화가 놀랍습니다. 최종 영상 결과는 원본 이미지와 매우 유사합니다. 완성된 그림을 살펴보겠습니다.

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 이 논문의 저자는 모두 일리노이 대학교 Urbana-Champaign(UIUC)의 Zhang Lingming 교사 팀 출신입니다. Steven Code Repair, 박사 4년차, 연구원

AI 모델이 내놓은 답변이 전혀 이해하기 어렵다면 감히 사용해 보시겠습니까? 기계 학습 시스템이 더 중요한 영역에서 사용됨에 따라 우리가 그 결과를 신뢰할 수 있는 이유와 신뢰할 수 없는 경우를 보여주는 것이 점점 더 중요해지고 있습니다. 복잡한 시스템의 출력에 대한 신뢰를 얻는 한 가지 가능한 방법은 시스템이 인간이나 다른 신뢰할 수 있는 시스템이 읽을 수 있는 출력 해석을 생성하도록 요구하는 것입니다. 즉, 가능한 오류가 발생할 수 있는 지점까지 완전히 이해할 수 있습니다. 설립하다. 예를 들어, 사법 시스템에 대한 신뢰를 구축하기 위해 우리는 법원이 자신의 결정을 설명하고 뒷받침하는 명확하고 읽기 쉬운 서면 의견을 제공하도록 요구합니다. 대규모 언어 모델의 경우 유사한 접근 방식을 채택할 수도 있습니다. 그러나 이 접근 방식을 사용할 때는 언어 모델이 다음을 생성하는지 확인하세요.

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 인공 지능 개발 과정에서 LLM(대형 언어 모델)의 제어 및 안내는 항상 핵심 과제 중 하나였으며 이러한 모델이 두 가지 모두를 보장하는 것을 목표로 했습니다. 강력하고 안전하게 인간 사회에 봉사합니다. 인간 피드백(RL)을 통한 강화 학습 방법에 초점을 맞춘 초기 노력

건배! 종이 토론이 말로만 진행된다면 어떤가요? 최근 스탠포드 대학교 학생들은 arXiv 논문에 대한 질문과 의견을 직접 게시할 수 있는 arXiv 논문에 대한 공개 토론 포럼인 alphaXiv를 만들었습니다. 웹사이트 링크: https://alphaxiv.org/ 실제로 이 웹사이트를 특별히 방문할 필요는 없습니다. URL에서 arXiv를 alphaXiv로 변경하면 alphaXiv 포럼에서 해당 논문을 바로 열 수 있습니다. 논문, 문장: 오른쪽 토론 영역에서 사용자는 저자에게 논문의 아이디어와 세부 사항에 대해 질문하는 질문을 게시할 수 있습니다. 예를 들어 다음과 같이 논문 내용에 대해 의견을 제시할 수도 있습니다.

최근 새천년 7대 과제 중 하나로 알려진 리만 가설이 새로운 돌파구를 마련했다. 리만 가설은 소수 분포의 정확한 특성과 관련된 수학에서 매우 중요한 미해결 문제입니다(소수는 1과 자기 자신으로만 나눌 수 있는 숫자이며 정수 이론에서 근본적인 역할을 합니다). 오늘날의 수학 문헌에는 리만 가설(또는 일반화된 형식)의 확립에 기초한 수학적 명제가 천 개가 넘습니다. 즉, 리만 가설과 그 일반화된 형식이 입증되면 천 개가 넘는 명제가 정리로 확립되어 수학 분야에 지대한 영향을 미칠 것이며, 리만 가설이 틀린 것으로 입증된다면, 이러한 제안의 일부도 그 효과를 잃을 것입니다. MIT 수학 교수 Larry Guth와 Oxford University의 새로운 돌파구

LLM에 인과관계 사슬을 보여주면 공리를 학습합니다. AI는 이미 수학자 및 과학자의 연구 수행을 돕고 있습니다. 예를 들어, 유명한 수학자 Terence Tao는 GPT와 같은 AI 도구의 도움을 받아 자신의 연구 및 탐색 경험을 반복적으로 공유했습니다. AI가 이러한 분야에서 경쟁하려면 강력하고 신뢰할 수 있는 인과관계 추론 능력이 필수적입니다. 본 논문에서 소개할 연구에서는 작은 그래프의 인과 전이성 공리 시연을 위해 훈련된 Transformer 모델이 큰 그래프의 전이 공리로 일반화될 수 있음을 발견했습니다. 즉, Transformer가 단순한 인과 추론을 수행하는 방법을 학습하면 보다 복잡한 인과 추론에 사용될 수 있습니다. 팀이 제안하는 공리적 훈련 프레임워크는 시연만으로 패시브 데이터를 기반으로 인과 추론을 학습하는 새로운 패러다임입니다.

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 서문 최근 몇 년 동안 다양한 분야에서 MLLM(Multimodal Large Language Model)의 적용이 눈에 띄는 성공을 거두었습니다. 그러나 많은 다운스트림 작업의 기본 모델로서 현재 MLLM은 잘 알려진 Transformer 네트워크로 구성됩니다.
