S-LoRA: 하나의 GPU에서 수천 개의 대형 모델 실행이 가능합니다.
일반적으로 대규모 언어 모델 배포에서는 일반적으로 "사전 학습-미세 조정" 방법을 채택합니다. 그러나 여러 작업(예: 개인화된 비서)에 대한 기본 모델을 미세 조정하는 경우 학습 및 서비스 비용이 매우 높아집니다. LoRA(LowRank Adaptation)는 효율적인 매개변수 미세 조정 방법으로, 일반적으로 기본 모델을 여러 작업에 적용하여 파생된 LoRA 어댑터를 대량으로 생성하는 데 사용됩니다.
다시 작성: 일괄 추론은 제공 중에 많은 기회를 제공하며 이 패턴은 어댑터 가중치를 미세 조정하여 전체 미세 조정과 비슷한 성능을 달성하는 것으로 나타났습니다. 이 접근 방식을 사용하면 대기 시간이 짧은 단일 어댑터 추론과 어댑터 전체의 직렬 실행이 가능하지만 여러 어댑터를 동시에 제공할 때 전체 서비스 처리량이 크게 줄어들고 전체 대기 시간이 늘어납니다. 따라서 이러한 미세 조정 변형의 대규모 서비스 문제를 어떻게 해결할지는 아직 알려지지 않았습니다
최근 UC Berkeley, Stanford 및 기타 대학의 연구자들은 S-LoRA라는 새로운 미세 조정 방법을 논문에서 제안했습니다
- 논문 주소: https://arxiv.org/pdf/2311.03285.pdf
- 프로젝트 주소: https://github.com/S-LoRA/S-LoRA
S-LoRA는 많은 LoRA 어댑터의 확장 가능한 서비스를 위해 설계된 시스템입니다. 모든 어댑터를 메인 메모리에 저장하고 현재 실행 중인 쿼리에서 사용되는 어댑터를 GPU 메모리로 가져옵니다.
S-LoRA는 통합 메모리 풀을 사용하여 다양한 수준의 동적 어댑터 가중치와 다양한 시퀀스 길이의 KV 캐시 텐서를 관리하는 "통합 페이징" 기술을 제안합니다. 또한 S-LoRA는 새로운 텐서 병렬성 전략과 고도로 최적화된 맞춤형 CUDA 커널을 사용하여 LoRA 계산의 이기종 일괄 처리를 가능하게 합니다.
이러한 기능을 통해 S-LoRA는 적은 비용으로(2000개의 어댑터를 동시에 제공) 단일 또는 다중 GPU에서 수천 개의 LoRA 어댑터를 제공하고 추가 LoRA 계산 비용을 최소화할 수 있습니다. 이에 비해 vLLM 팩은 여러 개의 가중치 사본을 유지해야 하며 GPU 메모리 제한으로 인해 5개 미만의 어댑터만 제공할 수 있습니다.
HuggingFace PEFT 및 vLLM과 같은 최신 기술과 비교(LoRA 서비스만 지원) ) 라이브러리와 비교하여 S-LoRA의 처리량은 최대 4배까지 증가할 수 있으며, 제공되는 어댑터 수는 몇 배까지 증가할 수 있습니다. 따라서 S-LoRA는 다양한 작업별 미세 조정 모델에 확장 가능한 서비스를 제공할 수 있으며 미세 조정 서비스의 대규모 사용자 정의 가능성을 제공합니다.
S-LoRA에는 세 가지 주요 혁신 부품이 포함되어 있습니다. 섹션 4에서는 기본 모델과 LoRA 어댑터 간의 계산을 분해하는 데 사용되는 일괄 처리 전략을 소개합니다. 또한 연구원들은 어댑터 클러스터링 및 승인 제어와 같은 측면을 포함하여 수요 일정 관리의 문제도 해결했습니다. 동시 어댑터 전체에 걸쳐 일괄 처리하는 기능은 메모리 관리에 새로운 과제를 안겨줍니다. 다섯 번째 부분에서 연구원들은 LoRA 어댑터의 동적 로딩을 지원하기 위해 PagedAttention을 Unfied Paging으로 승격합니다. 이 접근 방식은 통합 메모리 풀을 사용하여 KV 캐시 및 어댑터 가중치를 페이징 방식으로 저장합니다. 이를 통해 조각화를 줄이고 KV 캐시 및 어댑터 가중치의 동적으로 변화하는 크기의 균형을 맞출 수 있습니다. 마지막으로 6부에서는 기본 모델과 LoRA 어댑터를 효율적으로 분리할 수 있는 새로운 텐서 병렬 전략을 소개합니다.
다음은 주요 내용입니다.
일괄 처리
단일 어댑터의 경우 Hu et al. (2021)은 어댑터 가중치를 기본 모델 가중치와 병합하여 새로운 모델을 생성하는 권장 방법을 제안했습니다(수식 1 참조). 이것의 이점은 새 모델이 기본 모델과 동일한 수의 매개변수를 갖기 때문에 추론 중에 추가 어댑터 오버헤드가 없다는 것입니다. 사실 이는 원본 LoRA 작업의 주목할만한 기능이기도 합니다
이 기사에서는 LoRA 어댑터를 기본 모델에 병합하는 것이 다중 LoRA 고처리량 서비스 설정에 비효율적임을 지적합니다. 대신 연구진은 xAB를 계산하기 위해 실시간으로 LoRA를 계산할 것을 제안했다(수학식 2 참조).
S-LoRA에서는 기본 모델을 일괄 처리한 다음 맞춤형 CUDA 커널을 사용하여 모든 어댑터에 대해 개별적으로 추가 xAB를 수행합니다. 이 프로세스는 그림 1에 나와 있습니다. LoRA를 계산하기 위해 BLAS 라이브러리의 패딩 및 배치 GEMM 커널을 사용하는 대신 패딩 없이 보다 효율적인 계산을 달성하기 위해 맞춤형 CUDA 커널을 구현했습니다. 구현 세부 사항은 하위 섹션 5.3에 있습니다.
LoRA 어댑터를 메인 메모리에 저장하면 개수가 많아질 수 있지만, 현재는 배치 크기가 GPU 메모리에 의해 제한되기 때문에 배치 실행에 필요한 LoRA 어댑터 개수를 제어할 수 있습니다. 이를 활용하기 위해 모든 LoRA 어댑터를 메인 메모리에 저장하고 현재 실행 중인 배치를 추론할 때 해당 배치에 필요한 LoRA 어댑터만 GPU RAM으로 가져옵니다. 이 경우 서비스 가능한 최대 어댑터 수는 주 메모리 크기에 따라 제한됩니다. 그림 2는 이 프로세스를 보여줍니다. 섹션 5에서는 효율적인 메모리 관리를 위한 기술도 논의합니다
메모리 관리
단일 기본 모델을 제공하는 것과 비교하여 여러 LoRA 어댑터 카드를 동시에 제공하면 새로운 메모리 관리 문제가 발생합니다. 여러 어댑터를 지원하기 위해 S-LoRA는 이를 메인 메모리에 저장하고 현재 실행 중인 배치에 필요한 어댑터 가중치를 GPU RAM에 동적으로 로드합니다.
이 과정에는 두 가지 분명한 과제가 있습니다. 첫 번째는 다양한 크기의 어댑터 가중치를 동적으로 로드 및 언로드함으로써 발생하는 메모리 조각화 문제입니다. 두 번째는 어댑터 로드 및 언로드로 인해 발생하는 대기 시간 오버헤드입니다. 이러한 문제를 효과적으로 해결하기 위해 연구진은 "통합 페이징"이라는 개념을 제안하고 어댑터 가중치를 미리 가져옴으로써 I/O와 계산의 중첩을 구현했습니다
Unified Paging
연구원 개념 확장 통합 페이징에 대한 PagedAttention입니다. 통합 페이징은 KV 캐시 관리뿐만 아니라 어댑터 가중치 관리에도 사용됩니다. 통합 페이징은 통합 메모리 풀을 사용하여 KV 캐시와 어댑터 가중치를 공동으로 관리합니다. 이를 달성하기 위해 먼저 메모리 풀에 대규모 버퍼를 정적으로 할당합니다. 이는 기본 모델 가중치와 임시 활성화 텐서를 저장하는 데 사용되는 공간을 제외하고 사용 가능한 모든 공간을 활용합니다. KV 캐시 및 어댑터 가중치는 페이징 방식으로 메모리 풀에 저장되며 각 페이지는 H 벡터에 해당합니다. 따라서 시퀀스 길이가 S인 KV 캐시 텐서는 S 페이지를 차지하는 반면, R 수준 LoRA 가중치 텐서는 R 페이지를 차지합니다. 그림 3은 KV 캐시와 어댑터 가중치가 인터리브되고 연속되지 않은 방식으로 저장되는 메모리 풀의 레이아웃을 보여줍니다. 이 접근 방식은 조각화를 크게 줄이고 다양한 수준의 어댑터 가중치가 구조적이고 체계적인 방식으로 동적 KV 캐시와 공존할 수 있도록 보장합니다.
Tensor Parallel
또한, 배치 LoRA 추론 A 연구원 새로운 텐서 병렬 전략은 대규모 Transformer 모델의 다중 GPU 추론을 지원하도록 설계되었습니다. Tensor 병렬 처리는 단일 프로그램, 다중 데이터 패러다임이 구현 및 기존 시스템과의 통합을 단순화하기 때문에 가장 널리 사용되는 병렬 접근 방식입니다. Tensor 병렬 처리는 대규모 모델을 제공할 때 GPU당 메모리 사용량과 대기 시간을 줄일 수 있습니다. 이 설정에서 추가 LoRA 어댑터는 새로운 가중치 행렬과 행렬 곱셈을 도입하므로 이러한 추가에 대한 새로운 분할 전략이 필요합니다.
Evaluation
마지막으로 연구진은 Llama-7B/13B/30B/70B
를 제공하여 S-LoRA를 평가했습니다. 단일 GPU에서 수천 개의 LoRA 어댑터를 제공하거나 오버헤드가 거의 없는 여러 GPU를 제공합니다. S-LoRA는 최첨단 매개변수 효율적인 미세 조정 라이브러리인 Huggingface PEFT에 비해 최대 30배 더 높은 처리량을 달성합니다. S-LoRA는 LoRA 서비스를 지원하는 고처리량 서비스 시스템 vLLM을 사용하는 것에 비해 처리량을 4배 증가시키고 서비스 어댑터 수를 몇 배로 늘립니다.
자세한 연구 내용은 원문을 참고해주세요.
위 내용은 S-LoRA: 하나의 GPU에서 수천 개의 대형 모델 실행이 가능합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











DDREASE는 하드 드라이브, SSD, RAM 디스크, CD, DVD 및 USB 저장 장치와 같은 파일 또는 블록 장치에서 데이터를 복구하기 위한 도구입니다. 한 블록 장치에서 다른 블록 장치로 데이터를 복사하여 손상된 데이터 블록은 남겨두고 양호한 데이터 블록만 이동합니다. ddreasue는 복구 작업 중에 간섭이 필요하지 않으므로 완전히 자동화된 강력한 복구 도구입니다. 게다가 ddasue 맵 파일 덕분에 언제든지 중지하고 다시 시작할 수 있습니다. DDREASE의 다른 주요 기능은 다음과 같습니다. 복구된 데이터를 덮어쓰지 않지만 반복 복구 시 공백을 채웁니다. 그러나 도구에 명시적으로 지시된 경우에는 잘릴 수 있습니다. 여러 파일이나 블록의 데이터를 단일 파일로 복구

0. 이 글은 어떤 내용을 담고 있나요? 우리는 다재다능하고 빠른 최첨단 생성 단안 깊이 추정 모델인 DepthFM을 제안합니다. DepthFM은 전통적인 깊이 추정 작업 외에도 깊이 인페인팅과 같은 다운스트림 작업에서 최첨단 기능을 보여줍니다. DepthFM은 효율적이며 몇 가지 추론 단계 내에서 깊이 맵을 합성할 수 있습니다. 이 작품을 함께 읽어보아요~ 1. 논문 정보 제목: DepthFM: FastMoncularDepthEstimationwithFlowMatching 저자: MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

Google이 추진하는 JAX의 성능은 최근 벤치마크 테스트에서 Pytorch와 TensorFlow를 능가하여 7개 지표에서 1위를 차지했습니다. 그리고 JAX 성능이 가장 좋은 TPU에서는 테스트가 이루어지지 않았습니다. 개발자들 사이에서는 여전히 Tensorflow보다 Pytorch가 더 인기가 있습니다. 그러나 앞으로는 더 큰 모델이 JAX 플랫폼을 기반으로 훈련되고 실행될 것입니다. 모델 최근 Keras 팀은 기본 PyTorch 구현을 사용하여 세 가지 백엔드(TensorFlow, JAX, PyTorch)와 TensorFlow를 사용하는 Keras2를 벤치마킹했습니다. 첫째, 그들은 주류 세트를 선택합니다.

Boston Dynamics Atlas가 공식적으로 전기 로봇 시대에 돌입했습니다! 어제 유압식 Atlas가 역사의 무대에서 "눈물을 흘리며" 물러났습니다. 오늘 Boston Dynamics는 전기식 Atlas가 작동 중이라고 발표했습니다. 상업용 휴머노이드 로봇 분야에서는 보스턴 다이내믹스가 테슬라와 경쟁하겠다는 각오를 다진 것으로 보인다. 새 영상은 공개된 지 10시간 만에 이미 100만 명이 넘는 조회수를 기록했다. 옛 사람들은 떠나고 새로운 역할이 등장하는 것은 역사적 필연이다. 올해가 휴머노이드 로봇의 폭발적인 해라는 것은 의심의 여지가 없습니다. 네티즌들은 “로봇의 발전으로 올해 개막식도 인간처럼 생겼고, 자유도도 인간보다 훨씬 크다. 그런데 정말 공포영화가 아닌가?”라는 반응을 보였다. 영상 시작 부분에서 아틀라스는 바닥에 등을 대고 가만히 누워 있는 모습입니다. 다음은 입이 떡 벌어지는 내용이다

지연이 발생하고 iPhone의 모바일 데이터 연결 속도가 느립니까? 일반적으로 휴대폰의 셀룰러 인터넷 강도는 지역, 셀룰러 네트워크 유형, 로밍 유형 등과 같은 여러 요소에 따라 달라집니다. 더 빠르고 안정적인 셀룰러 인터넷 연결을 얻기 위해 할 수 있는 일이 몇 가지 있습니다. 수정 1 – iPhone 강제 다시 시작 때로는 장치를 강제로 다시 시작하면 셀룰러 연결을 포함한 많은 항목이 재설정됩니다. 1단계 – 볼륨 높이기 키를 한 번 눌렀다가 놓습니다. 그런 다음 볼륨 작게 키를 눌렀다가 다시 놓습니다. 2단계 - 프로세스의 다음 부분은 오른쪽에 있는 버튼을 누르는 것입니다. iPhone이 다시 시작되도록 하세요. 셀룰러 데이터를 활성화하고 네트워크 속도를 확인하세요. 다시 확인하세요 수정 2 – 데이터 모드 변경 5G는 더 나은 네트워크 속도를 제공하지만 신호가 약할 때 더 잘 작동합니다

세상은 미친 듯이 큰 모델을 만들고 있습니다. 인터넷의 데이터만으로는 충분하지 않습니다. 훈련 모델은 '헝거게임'처럼 생겼고, 전 세계 AI 연구자들은 이러한 데이터를 탐식하는 사람들에게 어떻게 먹이를 줄지 고민하고 있습니다. 이 문제는 다중 모드 작업에서 특히 두드러집니다. 아무것도 할 수 없던 시기에, 중국 인민대학교 학과의 스타트업 팀은 자체 새로운 모델을 사용하여 중국 최초로 '모델 생성 데이터 피드 자체'를 현실화했습니다. 또한 이해 측면과 생성 측면의 두 가지 접근 방식으로 양측 모두 고품질의 다중 모드 새로운 데이터를 생성하고 모델 자체에 데이터 피드백을 제공할 수 있습니다. 모델이란 무엇입니까? Awaker 1.0은 중관촌 포럼에 최근 등장한 대형 멀티모달 모델입니다. 팀은 누구입니까? 소폰 엔진. 런민대학교 힐하우스 인공지능대학원 박사과정 학생인 Gao Yizhao가 설립했습니다.

무엇? 주토피아는 국내 AI로 현실이 되는 걸까? 영상과 함께 노출된 것은 '켈링'이라는 국산 대형 영상세대 신형 모델이다. Sora는 유사한 기술 경로를 사용하고 자체 개발한 여러 기술 혁신을 결합하여 크고 합리적인 움직임뿐만 아니라 물리적 세계의 특성을 시뮬레이션하고 강력한 개념적 결합 능력과 상상력을 갖춘 비디오를 제작합니다. 데이터에 따르면 Keling은 최대 1080p의 해상도로 30fps에서 최대 2분의 초장 영상 생성을 지원하며 다양한 화면비를 지원합니다. 또 다른 중요한 점은 Keling이 실험실에서 공개한 데모나 비디오 결과 시연이 아니라 단편 비디오 분야의 선두주자인 Kuaishou가 출시한 제품 수준 애플리케이션이라는 점입니다. 더욱이 백지 작성이 아닌 실용성에 중점을 두고, 출시되자마자 온라인에 진출하는 데 중점을 두고 있다. 콰이잉에서는 커링의 대형 모델이 출시됐다.

테슬라의 로봇 옵티머스(Optimus)의 최신 영상이 공개됐는데, 이미 공장에서 작동이 가능한 상태다. 정상 속도에서는 배터리(테슬라의 4680 배터리)를 다음과 같이 분류합니다. 공식은 또한 20배 속도로 보이는 모습을 공개했습니다. 작은 "워크스테이션"에서 따고 따고 따고 : 이번에 출시됩니다. 영상에는 옵티머스가 공장에서 이 작업을 전 과정에 걸쳐 사람의 개입 없이 완전히 자율적으로 완료하는 모습이 담겨 있습니다. 그리고 Optimus의 관점에서 보면 자동 오류 수정에 중점을 두고 구부러진 배터리를 집어 넣을 수도 있습니다. NVIDIA 과학자 Jim Fan은 Optimus의 손에 대해 높은 평가를 했습니다. Optimus의 손은 세계의 다섯 손가락 로봇 중 하나입니다. 가장 능숙합니다. 손은 촉각적일 뿐만 아니라
