모델 추론 가속: CPU 성능이 5배 향상되었습니다. Apple은 대규모 추론 가속을 위해 플래시 메모리를 사용합니다.
Apple의 이 새로운 작품은 미래의 iPhone에 대형 모델을 추가하는 능력에 무한한 상상력을 불어넣을 것입니다.
최근에는 GPT-3, OPT, PaLM과 같은 LLM(대형 언어 모델)이 광범위한 NLP(자연어 처리) 작업에서 강력한 성능을 보여주었습니다. 그러나 이러한 성능을 달성하려면 광범위한 계산 및 메모리 추론이 필요합니다. 이러한 대규모 언어 모델에는 수천억 또는 심지어 수조 개의 매개변수가 포함될 수 있으므로 리소스가 제한된 장치에서 효율적으로 로드하고 실행하는 것이 어렵습니다.
현재 표준 솔루션은 로드하는 것입니다. 추론을 위해 전체 모델을 DRAM에 저장하지만 이로 인해 실행할 수 있는 최대 모델 크기가 심각하게 제한됩니다. 예를 들어, 70억 개의 매개변수 모델의 경우 매개변수를 반정밀도 부동 소수점 형식으로 로드하려면 14GB 이상의 메모리가 필요하며 이는 대부분의 엣지 장치의 기능을 뛰어넘습니다.
이러한 한계를 해결하기 위해 Apple 연구진은 모델 매개변수를 DRAM보다 최소한 한 자릿수 더 큰 플래시 메모리에 저장할 것을 제안했습니다. 그런 다음 추론 중에 필요한 매개변수를 직접적이고 교묘하게 플래시 로드하여 전체 모델을 DRAM에 맞출 필요가 없습니다.
이 접근 방식은 LLM이 FFN(피드포워드 네트워크) 계층에서 높은 수준의 희소성을 나타내며 OPT 및 Falcon과 같은 모델이 90%를 초과하는 희소성을 달성한다는 것을 보여주는 최근 연구를 기반으로 합니다. 따라서 우리는 이 희소성을 활용하여 입력이 0이 아니거나 출력이 0이 아닌 것으로 예측되는 매개변수만 플래시 메모리에서 선택적으로 로드합니다.
논문 주소: https://arxiv.org/pdf/2312.11514.pdf
특히 연구원들은 플래시 메모리, DRAM 및 컴퓨팅 코어(CPU 또는 GPU)를 포함하는 하드웨어에서 영감을 받은 비용 모델에 대해 논의했습니다. 그런 다음 데이터 전송을 최소화하고 플래시 처리량을 최대화하기 위해 두 가지 보완 기술이 도입되었습니다.
창: 처음 몇 개 태그의 매개변수만 로드하고 가장 최근에 계산된 태그의 활성화를 재사용합니다. 이 슬라이딩 윈도우 접근 방식은 가중치를 로드하기 위한 IO 요청 수를 줄입니다.
행 및 행 번들링: 위쪽 및 아래쪽 투영 레이어의 연결된 행과 열을 저장하여 더 큰 연속 플래시 메모리 블록을 읽습니다. 이렇게 하면 더 큰 블록을 읽어 처리량이 늘어납니다.
플래시에서 DRAM으로 전송되는 가중치 수를 더욱 줄이기 위해 연구원들은 FFN의 희소성을 예측하고 제로화 매개변수 로드를 방지하려고 노력했습니다. 윈도우잉과 희소성 예측의 조합을 사용하면 추론 쿼리당 플래시 FFN 레이어의 2%만 로드됩니다. 또한 내부 DRAM 전송을 최소화하고 추론 지연 시간을 줄이기 위해 정적 메모리 사전 할당을 제안했습니다.
이 백서의 플래시 로드 비용 모델은 더 나은 데이터 로드와 더 큰 청크 읽기 간의 균형을 유지합니다. 이 비용 모델을 최적화하고 필요에 따라 매개변수를 선택적으로 로드하는 플래시 전략은 CPU 및 GPU 시간의 순진한 구현에 비해 두 배의 DRAM 용량으로 모델을 실행하고 추론 속도를 각각 4~5배 및 20~25배 향상시킬 수 있습니다.
몇몇 사람들은 이 작업이 iOS 개발을 더욱 흥미롭게 만들 것이라고 말했습니다.
플래시 및 LLM 추론
대역폭 및 에너지 제한
최신 NAND 플래시는 높은 대역폭과 낮은 대기 시간을 제공하지만, 특히 메모리가 제한된 시스템에서는 여전히 DRAM 성능 수준에 미치지 못합니다. 아래 그림 2a는 이러한 차이점을 보여줍니다.
NAND 플래시에 의존하는 순진한 추론 구현은 각 순방향 패스마다 전체 모델을 다시 로드해야 할 수 있습니다. 이는 모델을 압축하는 데에도 몇 초가 걸릴 만큼 시간이 많이 걸리는 프로세스입니다. 또한 DRAM에서 CPU 또는 GPU 메모리로 데이터를 전송하려면 더 많은 에너지가 필요합니다.
DRAM이 충분한 시나리오에서는 데이터 로딩 비용이 줄어들고 모델이 DRAM에 상주할 수 있습니다. 그러나 모델의 초기 로딩은 특히 첫 번째 토큰에 빠른 응답 시간이 필요한 경우 여전히 에너지를 소비합니다. 우리의 방법은 LLM의 활성화 희소성을 활용하여 모델 가중치를 선택적으로 읽어 이러한 문제를 해결함으로써 시간과 에너지 비용을 줄입니다.
다음으로 표현: 데이터 전송 속도 얻기
플래시 시스템은 많은 순차 읽기에서 가장 좋은 성능을 발휘합니다. 예를 들어 Apple MacBook Pro M2에는 2TB의 플래시 메모리가 장착되어 있으며, 벤치마크 테스트에서 캐시되지 않은 파일 1GiB의 선형 읽기 속도가 6GiB/s를 초과했습니다. 그러나 운영 체제, 드라이버, 중급 프로세서 및 플래시 컨트롤러를 포함하여 이러한 읽기의 다단계 특성으로 인해 소규모 무작위 읽기는 이러한 높은 대역폭을 달성할 수 없습니다. 각 단계마다 대기 시간이 발생하며 이는 더 작은 읽기 속도에 더 큰 영향을 미칩니다.
이러한 제한을 피하기 위해 연구자들은 동시에 사용할 수 있는 두 가지 주요 전략을 옹호합니다.
첫 번째 전략은 더 큰 데이터 블록을 읽는 것입니다. 처리량의 증가는 선형적이지 않지만(더 큰 데이터 블록에는 더 긴 전송 시간이 필요함) 초기 바이트의 지연은 총 요청 시간에서 더 작은 부분을 차지하므로 데이터 읽기가 더 효율적입니다. 그림 2b는 이 원리를 보여줍니다. 반직관적이지만 흥미로운 관찰은 어떤 경우에는 필요한 것보다 더 많은 데이터(그러나 더 큰 청크)를 읽은 다음 이를 삭제하는 것이 필요한 것만 작은 청크로 읽는 것보다 빠르다는 것입니다.
두 번째 전략은 스토리지 스택과 플래시 컨트롤러의 고유한 병렬성을 활용하여 병렬 읽기를 달성하는 것입니다. 결과는 표준 하드웨어에서 32KiB 이상의 다중 스레드 무작위 읽기를 사용하여 희소 LLM 추론에 적합한 처리량을 달성할 수 있음을 보여줍니다.
처리량을 최대화하는 열쇠는 가중치가 저장되는 방식에 있습니다. 평균 블록 길이를 늘리는 레이아웃은 대역폭을 크게 늘릴 수 있기 때문입니다. 어떤 경우에는 데이터를 더 작고 덜 효율적인 청크로 분할하는 것보다 초과 데이터를 읽고 나중에 삭제하는 것이 유익할 수 있습니다.
플래시 로딩
위의 과제에서 영감을 받아 연구원들은 데이터 전송량을 최적화하고 데이터 전송 속도를 향상시키는 방법을 제안했습니다. 이는 다음과 같이 표현될 수 있습니다. 추론 속도를 크게 향상시키기 위해 데이터 전송 속도를 얻습니다. 이 섹션에서는 사용 가능한 계산 메모리가 모델 크기보다 훨씬 작은 장치에서 추론을 수행하는 과제에 대해 설명합니다.
이 과제를 분석하려면 전체 모델 중량을 플래시 메모리에 저장해야 합니다. 연구자들이 다양한 플래시 로딩 전략을 평가하기 위해 사용하는 기본 지표는 지연 시간이며, 이는 플래시 로드를 수행하는 I/O 비용, 새로 로드된 데이터를 관리하는 데 필요한 메모리 오버헤드, 플래시 로드의 계산 비용이라는 세 가지 구성 요소로 나뉩니다. 추론 연산.
Apple은 메모리 제약 하에서 지연 시간을 줄이기 위한 솔루션을 각각 지연 시간의 특정 측면을 목표로 하는 세 가지 전략적 영역으로 나눕니다.
1. 데이터 로드 감소: 플래시 I/O 작업과 관련된 지연 시간을 줄여서 지연 시간을 줄이는 것을 목표로 합니다.
2. 데이터 블록 크기 최적화: 로드된 데이터 블록의 크기를 늘려 플래시 처리량을 향상시켜 대기 시간을 줄입니다.
다음은 연구자들이 플래시 읽기 효율성을 높이기 위해 데이터 블록 크기를 늘리기 위해 사용하는 전략입니다.
열과 행 묶기
Co-activation 기반 묶기
3. 효과적인 관리 로드된 데이터: 데이터가 메모리에 로드되면 데이터 관리를 단순화하여 오버헤드를 최소화합니다.
DRAM의 데이터 전송은 플래시 메모리에 액세스하는 것보다 효율적이지만 무시할 수 없는 비용이 발생합니다. 새로운 뉴런에 대한 데이터를 도입할 때 행렬을 다시 할당하고 새 행렬을 추가하면 DRAM에 기존 뉴런 데이터를 다시 써야 하기 때문에 상당한 오버헤드가 발생할 수 있습니다. 이는 DRAM의 FFN(피드포워드 네트워크)의 상당 부분(~25%)을 다시 작성해야 할 때 특히 비용이 많이 듭니다.
이 문제를 해결하기 위해 연구원들은 또 다른 메모리 관리 전략을 채택했습니다. 이 전략에는 필요한 모든 메모리를 사전 할당하고 효율적인 관리를 위해 해당 데이터 구조를 설정하는 작업이 포함됩니다. 그림 6에 표시된 것처럼 데이터 구조에는 포인터, 행렬, 오프셋, 사용된 숫자 및 last_k_active와 같은 요소가 포함됩니다.
그림 6: 메모리 관리, 먼저 마지막 요소를 삭제 뉴런에 복사하여 연속성을 유지합니다. 메모리 블록을 구성한 다음 필요한 요소를 끝까지 쌓아서 전체 데이터를 여러 번 복사하는 것을 방지합니다.
계산 과정에는 초점이 맞춰져 있지 않다는 점에 유의해야 합니다. 이 기사의 핵심 작업과 아무 관련이 없기 때문입니다. 이 파티셔닝을 통해 연구원들은 메모리가 제한된 장치에서 효율적인 추론을 달성하기 위해 플래시 상호 작용 및 메모리 관리 최적화에 집중할 수 있습니다. 그림 3a에서 볼 수 있듯이 우리의 예측자는 대부분의 활성화된 뉴런을 정확하게 식별할 수 있지만 때때로 0에 가까운 값으로 활성화되지 않은 뉴런을 잘못 식별합니다. 0에 가까운 값을 갖는 이러한 거짓 음성 뉴런이 제거된 후에도 최종 출력 결과는 크게 변경되지 않는다는 점은 주목할 가치가 있습니다. 또한 표 1에서 볼 수 있듯이 이러한 예측 정확도 수준은 제로샷 작업에 대한 모델 성능에 부정적인 영향을 미치지 않습니다.
지연 분석. 창 크기가 5인 경우 각 토큰은 FFN(피드포워드 네트워크) 뉴런의 2.4%에 액세스해야 합니다. 32비트 모델의 경우 행과 열의 연결이 포함되므로 읽기당 블록 크기는 2dmodel × 4바이트 = 32KiB입니다. M1 Max에서 토큰당 플래시 로딩 지연 시간은 125밀리초이고, 메모리 관리(뉴런 삭제 및 추가 포함) 지연 시간은 65밀리초입니다. 따라서 총 메모리 관련 대기 시간은 토큰당 190밀리초 미만입니다(그림 1 참조). 이에 비해 기본 접근 방식에서는 6.1GB/s의 속도로 13.4GB의 데이터를 로드해야 하므로 토큰당 약 2330밀리초의 지연 시간이 발생합니다. 따라서 우리의 방법은 기본 방법에 비해 크게 개선되었습니다.
GPU 시스템의 16비트 모델의 경우 플래시 로드 시간은 40.5밀리초로 줄어들고 메모리 관리 시간은 40밀리초로 CPU에서 GPU로 데이터를 전송하는 추가 오버헤드로 인해 약간 증가합니다. 그럼에도 불구하고 기준 방법의 I/O 시간은 여전히 2000ms를 초과합니다.
표 2에서는 각 방법의 성능 영향을 자세히 비교합니다.
Falcon 7B 모델 결과
지연 분석. 우리 모델에서 창 크기 4를 사용하면 각 토큰은 FFN(피드포워드 네트워크) 뉴런의 3.1%에 액세스해야 합니다. 32비트 모델에서 이는 읽기당 블록 크기가 35.5KiB(2dmodel × 4바이트로 계산됨)에 해당합니다. M1 Max 장치에서 이 데이터를 플래시 로드하는 데는 약 161밀리초가 걸리고 메모리 관리 프로세스는 90밀리초를 추가하므로 토큰당 총 대기 시간은 250밀리초입니다. 이에 비해 기본 대기 시간이 약 2330밀리초인 경우 우리의 방법은 약 9~10배 더 빠릅니다.
위 내용은 모델 추론 가속: CPU 성능이 5배 향상되었습니다. Apple은 대규모 추론 가속을 위해 플래시 메모리를 사용합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











역시 Tusheng 영상이지만 PaintsUndo는 다른 경로를 택했습니다. ControlNet 작성자 LvminZhang이 다시 살기 시작했습니다! 이번에는 회화 분야를 목표로 삼고 있습니다. 새로운 프로젝트인 PaintsUndo는 출시된 지 얼마 되지 않아 1.4kstar(여전히 상승세)를 받았습니다. 프로젝트 주소: https://github.com/lllyasviel/Paints-UNDO 이 프로젝트를 통해 사용자는 정적 이미지를 입력하고 PaintsUndo는 자동으로 라인 초안부터 완성품 따라가기까지 전체 페인팅 과정의 비디오를 생성하도록 도와줍니다. . 그리는 과정에서 선의 변화가 놀랍습니다. 최종 영상 결과는 원본 이미지와 매우 유사합니다. 완성된 그림을 살펴보겠습니다.

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 이 논문의 저자는 모두 일리노이 대학교 Urbana-Champaign(UIUC)의 Zhang Lingming 교사 팀 출신입니다. Steven Code Repair, 박사 4년차, 연구원

AI 모델이 내놓은 답변이 전혀 이해하기 어렵다면 감히 사용해 보시겠습니까? 기계 학습 시스템이 더 중요한 영역에서 사용됨에 따라 우리가 그 결과를 신뢰할 수 있는 이유와 신뢰할 수 없는 경우를 보여주는 것이 점점 더 중요해지고 있습니다. 복잡한 시스템의 출력에 대한 신뢰를 얻는 한 가지 가능한 방법은 시스템이 인간이나 다른 신뢰할 수 있는 시스템이 읽을 수 있는 출력 해석을 생성하도록 요구하는 것입니다. 즉, 가능한 오류가 발생할 수 있는 지점까지 완전히 이해할 수 있습니다. 설립하다. 예를 들어, 사법 시스템에 대한 신뢰를 구축하기 위해 우리는 법원이 자신의 결정을 설명하고 뒷받침하는 명확하고 읽기 쉬운 서면 의견을 제공하도록 요구합니다. 대규모 언어 모델의 경우 유사한 접근 방식을 채택할 수도 있습니다. 그러나 이 접근 방식을 사용할 때는 언어 모델이 다음을 생성하는지 확인하세요.

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 인공 지능 개발 과정에서 LLM(대형 언어 모델)의 제어 및 안내는 항상 핵심 과제 중 하나였으며 이러한 모델이 두 가지 모두를 보장하는 것을 목표로 했습니다. 강력하고 안전하게 인간 사회에 봉사합니다. 인간 피드백(RL)을 통한 강화 학습 방법에 초점을 맞춘 초기 노력

최근 새천년 7대 과제 중 하나로 알려진 리만 가설이 새로운 돌파구를 마련했다. 리만 가설은 소수 분포의 정확한 특성과 관련된 수학에서 매우 중요한 미해결 문제입니다(소수는 1과 자기 자신으로만 나눌 수 있는 숫자이며 정수 이론에서 근본적인 역할을 합니다). 오늘날의 수학 문헌에는 리만 가설(또는 일반화된 형식)의 확립에 기초한 수학적 명제가 천 개가 넘습니다. 즉, 리만 가설과 그 일반화된 형식이 입증되면 천 개가 넘는 명제가 정리로 확립되어 수학 분야에 지대한 영향을 미칠 것이며, 리만 가설이 틀린 것으로 입증된다면, 이러한 제안의 일부도 그 효과를 잃을 것입니다. MIT 수학 교수 Larry Guth와 Oxford University의 새로운 돌파구

건배! 종이 토론이 말로만 진행된다면 어떤가요? 최근 스탠포드 대학교 학생들은 arXiv 논문에 대한 질문과 의견을 직접 게시할 수 있는 arXiv 논문에 대한 공개 토론 포럼인 alphaXiv를 만들었습니다. 웹사이트 링크: https://alphaxiv.org/ 실제로 이 웹사이트를 특별히 방문할 필요는 없습니다. URL에서 arXiv를 alphaXiv로 변경하면 alphaXiv 포럼에서 해당 논문을 바로 열 수 있습니다. 논문, 문장: 오른쪽 토론 영역에서 사용자는 저자에게 논문의 아이디어와 세부 사항에 대해 질문하는 질문을 게시할 수 있습니다. 예를 들어 다음과 같이 논문 내용에 대해 의견을 제시할 수도 있습니다.

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 서문 최근 몇 년 동안 다양한 분야에서 MLLM(Multimodal Large Language Model)의 적용이 눈에 띄는 성공을 거두었습니다. 그러나 많은 다운스트림 작업의 기본 모델로서 현재 MLLM은 잘 알려진 Transformer 네트워크로 구성됩니다.

LLM에 인과관계 사슬을 보여주면 공리를 학습합니다. AI는 이미 수학자 및 과학자의 연구 수행을 돕고 있습니다. 예를 들어, 유명한 수학자 Terence Tao는 GPT와 같은 AI 도구의 도움을 받아 자신의 연구 및 탐색 경험을 반복적으로 공유했습니다. AI가 이러한 분야에서 경쟁하려면 강력하고 신뢰할 수 있는 인과관계 추론 능력이 필수적입니다. 본 논문에서 소개할 연구에서는 작은 그래프의 인과 전이성 공리 시연을 위해 훈련된 Transformer 모델이 큰 그래프의 전이 공리로 일반화될 수 있음을 발견했습니다. 즉, Transformer가 단순한 인과 추론을 수행하는 방법을 학습하면 보다 복잡한 인과 추론에 사용될 수 있습니다. 팀이 제안하는 공리적 훈련 프레임워크는 시연만으로 패시브 데이터를 기반으로 인과 추론을 학습하는 새로운 패러다임입니다.
