목차
훈련 데이터 세트 오픈 소스
系统性能优化与开发加速
ColossalChat和Alpaca的区别" >ColossalChat和Alpaca的区别
RLHF가 추가로 도입되었지만, 때문에 컴퓨팅 성능 데이터 세트가 제한되어 있기 때문에 일부 시나리오에서는 실제 성능이 개선될 여지가 여전히 남아 있습니다.
기술 주변기기 일체 포함 0-임계값 복제 솔루션이 업그레이드되었으며, 오픈 소스 모델이 완전히 재현되었으며, 온라인 체험을 위해 등록이 필요하지 않습니다.

0-임계값 복제 솔루션이 업그레이드되었으며, 오픈 소스 모델이 완전히 재현되었으며, 온라인 체험을 위해 등록이 필요하지 않습니다.

Apr 14, 2023 pm 10:58 PM
ai 계획

ChatGPT, GPT4로 대표되는 AI 애플리케이션과 대형 모델은 전 세계적으로 큰 인기를 끌며 새로운 기술 산업 혁명과 AGI(Artificial General Intelligence)의 새로운 출발점을 여는 것으로 평가받고 있습니다. 기술 대기업들이 서로를 쫓아다니며 신제품 출시 경쟁을 벌이고 있을 뿐만 아니라, 학계와 업계의 많은 AI 거물들도 관련 창업 물결에 투자하고 있습니다. 생성적 AI는 "수일" 내에 빠르게 반복되고 있으며 계속해서 급증하고 있습니다!

그러나 OpenAI는 이를 오픈 소스로 만들지 않았습니다. 그 뒤에 숨겨진 기술적 세부 사항은 무엇입니까? 이 기술 물결을 빠르게 따르고, 따라잡고, 참여하는 방법은 무엇입니까? 대규모 AI 모델을 구축하고 적용하는 데 드는 높은 비용을 줄이는 방법은 무엇입니까? 타사 대형 모델 API 사용으로 인한 핵심 데이터 및 지적 재산 유출을 어떻게 방지할 수 있나요?

가장 인기 있는 오픈 소스 AI 대형 모델 솔루션인 Colossal-AI는 감독 데이터 세트 수집 -> 감독 미세 조정 -> 보상 모델 훈련 -> 강화를 포함하는 완전한 RLHF 프로세스 구축에 앞장섰습니다. 미세 조정 학습 LLaMA를 사전 훈련된 모델로 사용하여 ColossalChat을 출시했습니다. 는 현재 ChatGPT의 원래 기술 솔루션에 가장 가까운 실용적인 오픈 소스 프로젝트입니다!

소스 주소 : https://github.com/hpcaitech/colossalai

다음 내용을 포함합니다. 온라인 모델 효과, 등록이나 대기자 명단 필요 없음

2. 교육 코드: 7B 및 13B 모델을 포함하도록 오픈 소스로 제공되는 완전한 오픈 소스 RLHF 교육 코드

3. 세트: 오픈 소스 104K 중간, 영어 이중 언어 데이터 세트

4.

추론 배포: 4비트 정량적 추론 70억 매개변수 모델에는 4GB의 비디오 메모리만 필요합니다.

5.

단일 서버에서 적은 양의 컴퓨팅 성능만으로도 빠르게 재현 가능6. 대규모 모델, 데이터 세트, 기타 최적화 등이 빠른 속도로 반복적으로 추가됩니다

저렴함 모델 및 강력한 기능ColossalChat에는 100억 개 미만의 매개변수만 필요하며 대규모 언어에서도 가능합니다. 모델을 기반으로 RLHF를 미세 조정하면 중국어 및 영어 이중 언어 기술을 마스터하고 ChatGPT 및 GPT-3.5와 유사한 효과를 얻을 수 있습니다. .

예: 상식적인 질문과 답변:

중국어 답변:

이메일 쓰기:

0-임계값 복제 솔루션이 업그레이드되었으며, 오픈 소스 모델이 완전히 재현되었으며, 온라인 체험을 위해 등록이 필요하지 않습니다.

쓰기 알고리즘:

0-임계값 복제 솔루션이 업그레이드되었으며, 오픈 소스 모델이 완전히 재현되었으며, 온라인 체험을 위해 등록이 필요하지 않습니다.

전체 ChatGPT 복제 솔루션

0-임계값 복제 솔루션이 업그레이드되었으며, 오픈 소스 모델이 완전히 재현되었으며, 온라인 체험을 위해 등록이 필요하지 않습니다.ChatGPT 및 GPT-4와 같은 GPT 시리즈 모델은 매우 강력하지만 완전한 오픈 소스일 가능성은 낮습니다. 다행스럽게도 오픈소스 커뮤니티는 계속해서 열심히 일하고 있습니다. ㅋㅋㅋ 하지만 미세 조정(튜닝 지시)을 지시하지 않았기 때문에 실제 발전 효과는 이상적이지 않았습니다.

Stanford의 Alpaca는 OpenAI API를 호출하여 자체 지시 방식으로 훈련 데이터를 생성하므로 매개변수가 70억 개에 불과한 경량 모델을 매우 저렴한 비용으로 미세 조정하여 다음과 같은 수천억 개의 매개변수를 얻을 수 있습니다. GPT-3.5 매우 대규모 언어 모델의 대화 효과.

하지만기존 오픈 소스 솔루션은 후속 정렬 및 미세 조정 작업 없이 RLHF(인간 피드백 강화 학습)에서 지도 미세 조정 모델의 첫 번째 단계만 획득한 것으로 간주할 수 있습니다. 동시에 Alpaca의 훈련 데이터 세트가 너무 작고 말뭉치가 영어로만 되어 있어 모델 성능이 어느 정도 제한됩니다.

그리고 ChatGPT 및 GPT-4의 놀라운 효과는 훈련 과정에 RLHF를 도입하여 생성된 콘텐츠를 인간의 가치와 더욱 일관되게 만드는 데 있습니다.

0-임계값 복제 솔루션이 업그레이드되었으며, 오픈 소스 모델이 완전히 재현되었으며, 온라인 체험을 위해 등록이 필요하지 않습니다.

3단계 RLHF

LLaMA 모델을 기반으로 하는 Colossal-AI는 완전한 RLHF 프로세스를 포함하는 최초의 오픈 소스 Chat 같은 모델 재현 솔루션입니다. 현재 ChatGPT의 원래 기술 경로에 가장 가까운 실용적인 오픈 소스 프로젝트입니다!

훈련 데이터 세트 오픈 소스

ColossalChat은 약 100,000개의 질문과 답변이 포함된 중국어 및 영어 이중 언어 데이터 세트를 오픈 소스로 제공했습니다. 이 데이터 세트는 소셜 플랫폼에서 사람들의 실제 질문 시나리오를 시드 데이터 세트로 수집하고 정리하며, 자체 학습 기술을 사용하여 데이터를 확장하고 주석 비용은 약 $900입니다. 다른 자가 학습 방법으로 생성된 데이터 세트와 비교할 때 이 데이터 세트의 시드 데이터는 더 현실적이고 풍부하며 생성된 데이터 세트는 더 많은 주제를 다루고 있습니다. 이 데이터는 미세 조정 및 RLHF 훈련 모두에 사용될 수 있습니다. ColossalChat은 고품질 데이터를 통해 더 나은 대화 상호 작용을 수행하고 중국어를 지원할 수 있습니다.

0-임계값 복제 솔루션이 업그레이드되었으며, 오픈 소스 모델이 완전히 재현되었으며, 온라인 체험을 위해 등록이 필요하지 않습니다.

ColossalChat 데이터 세트 수집 프로세스

RLHF 알고리즘 재현

RLHF-Stage1은 위에서 언급한 데이터 세트를 사용하여 지도 조정됩니다. -조정하다 모델 .

RLHF-Stage2는 동일한 프롬프트의 다양한 출력을 수동으로 정렬하여 해당 점수를 얻고 보상 모델의 교육을 감독합니다.

RLHF-Stage3은 훈련 과정에서 가장 복잡한 부분인 강화 학습 알고리즘을 사용합니다.

0-임계값 복제 솔루션이 업그레이드되었으며, 오픈 소스 모델이 완전히 재현되었으며, 온라인 체험을 위해 등록이 필요하지 않습니다.

RLHF-Stage3 알고리즘 흐름도

PPO 부분에서, ColossalChat은 두 단계로 나누어집니다. 첫 번째는 SFT, Actor, RM 및 Critic 모델을 사용하여 Experience를 계산 및 생성하고 이를 버퍼에 저장하는 Make Experience 부분입니다. 경험을 활용하여 전략 손실과 가치 손실을 계산하는 부분입니다.

PTX 부분에서 ColossalChat은 배우 출력 응답의 교차 엔트로피 손실 함수와 입력 코퍼스의 답변 부분을 계산합니다. 이는 원래 성능을 유지하기 위해 PPO 기울기에 사전 훈련 기울기를 추가하는 데 사용됩니다. 언어 모델을 이해하고 망각을 방지합니다. 마지막으로 역전파 및 매개변수 업데이트를 위해 전략 손실, 가치 손실 및 PTX 손실이 합산됩니다.

빨리 시작하세요

ColossalChat은 LLaMA 모델을 기반으로 ChatGPT 교육의 3단계를 재현하기 위한 전체 코드를 오픈 소스로 공개했습니다.

첫 번째 단계, SFT 모델 훈련:

# Training with a 4-GPU servers
colossalai run --nproc_per_node=4 train_sft.py 
--pretrain "/path/to/LLaMa-7B/" 
--model 'llama' 
--strategy colossalai_zero2 
--log_interval 10 
--save_path/path/to/Coati-7B 
--dataset /path/to/data.json 
--batch_size 4 
--accimulation_steps 8 
--lr 2e-5
로그인 후 복사

두 번째 단계, 보상 모델 훈련:

# Training with a 4-GPU servers
colossalai run --nproc_per_node=4 train_reward_model.py 
--pretrain "/path/to/LLaMa-7B/" 
--model 'llama' 
--strategy colossalai_zero2 
--dataset /path/to/datasets
로그인 후 복사

세 번째 단계, RL 훈련 사용:

# Training with a 8-GPU servers
colossalai run --nproc_per_node=8 train_prompts.py prompts.csv 
--strategy colossalai_zero2 
--pretrain "/path/to/Coati-7B" 
--model 'llama' 
--pretrain_dataset /path/to/dataset
로그인 후 복사

최종 모델을 얻은 후 가중치, 추론 하드웨어 비용도 정량화를 통해 줄일 수 있으며, 온라인 추론 서비스를 시작할 수 있습니다. 비디오 메모리가 약 4GB인 단일 GPU만으로 70억 개의 매개변수 모델 추론 서비스 배포를 완료할 수 있습니다.

python server.py/path/to/pretrained --quant 4bit --gptq_checkpoint /path/to/coati-7b-4bit-128g.pt --gptq_group_size 128
로그인 후 복사

系统性能优化与开发加速

ColossalChat 能够快速跟进 ChatGPT 完整 RLHF 流程复现,离不开 AI 大模型基础设施 Colossal-AI 及相关优化技术的底座支持,相同条件下训练速度相比 Alpaca 采用的 FSDP (Fully Sharded Data Parallel) 可提升三倍左右

系统基础设施 Colossal-AI

AI 大模型开发系统 Colossal-AI 为该方案提供了基础支持,它可基于 PyTorch 高效快速部署 AI 大模型训练和推理,从而降低 AI 大模型应用的成本。Colossal-AI 由加州伯克利大学杰出教授 James Demmel 和新加坡国立大学校长青年教授尤洋领导开发。自从它开源以来,Colossal-AI 已经多次在 GitHub 热榜位列世界第一,获得 GitHub Star 约两万颗,并成功入选 SC、AAAI、PPoPP、CVPR、ISC 等国际 AI 与 HPC 顶级会议的官方教程。

减少内存冗余的 ZeRO + Gemini

Colossal-AI 支持使用无冗余优化器 (ZeRO) 提高内存使用效率,低成本容纳更大模型,同时不影响计算粒度和通信效率。自动 Chunk 机制可以进一步提升 ZeRO 的性能,提高内存使用效率,减少通信次数并避免内存碎片。异构内存空间管理器 Gemini 支持将优化器状态从 GPU 显存卸载到 CPU 内存或硬盘空间,以突破 GPU 显存容量限制,扩展可训练模型的规模,降低 AI 大模型应用成本。

使用 LoRA 低成本微调

Colossal-AI 支持使用低秩矩阵微调(LoRA)方法,对 AI 大模型进行低成本微调。LoRA 方法认为大语言模型是过参数化的,而在微调时,参数改变量是一个低秩矩阵。因此,可以将这个矩阵分解为两个更小的矩阵的乘积。在微调过程中,大模型的参数被固定,只有低秩矩阵参数被调整,从而显著减小了训练所需的参数量,并降低成本。

低成本量化推理

0-임계값 복제 솔루션이 업그레이드되었으며, 오픈 소스 모델이 완전히 재현되었으며, 온라인 체험을 위해 등록이 필요하지 않습니다.

GPTQ 量化

为降低推理部署成本,Colossal-AI 使用 GPTQ 4bit 量化推理。在 GPT/OPT/BLOOM 类模型上,它比传统的 RTN (rount-to-nearest) 量化技术能够获得更好的 Perplexity 效果。相比常见的 FP16 推理,它可将显存消耗降低 75%,只损失极少量的吞吐速度与 Perplexity 性能。

以 ColossalChat-7B 为例,在使用 4bit 量化推理时,70 亿参数模型仅需大约 4GB 显存即可完成短序列(生成长度为 128 )推理,在普通消费级显卡上即可完成(例如 RTX 3060 Laptop),仅需一行代码即可使用。

if args.quant == '4bit':
model = load_quant (args.pretrained, args.gptq_checkpoint, 4, args.gptq_group_size)
로그인 후 복사

如果采用高效的异步卸载技术 (offload),还可以进一步降低显存要求,使用更低成本的硬件推理更大的模型。

ColossalChat和Alpaca的区别

1. ColossalChat 开源了第一个完整的RLHF pipeline,斯坦福Alpaca没有做 RLHF,也就是没有做 Stage 2 和 Stage 3。

2. ColossalChat 采用了更多的指令数据,质量更好,范围更大,并使用强化学习做alignment 使回答更接近人类。

3. ColossalChat 훈련 프로세스는 Colossal-AI의 다양한 시스템 최적화를 통합합니다. 동일한 데이터 세트와 모델 크기의 훈련 속도는 Alpaca보다 약 3배 빠릅니다. 중소기업도 자체 세션 시스템을 독립적으로 교육하고 배포할 수 있습니다.

4. ColossalChat 팀은 훈련용으로 영어로 된 총 2,400만 개의 토큰, 중국어로 된 약 3,000만 개의 토큰, 총 약 5,400만 개의 토큰 등 더 많은 데이터 세트를 직접 수집했습니다. 그중 ColossalChat 자체에서 수집한 데이터 세트는 영어로 600만 개, 중국어로 1,800만 개의 토큰입니다.

다음은 언어 대화에서 ColossalChat과 알파카의 일부 성능입니다(위는 ColossalChat, 아래는 알파카).

Write Quicksort in Python:

0-임계값 복제 솔루션이 업그레이드되었으며, 오픈 소스 모델이 완전히 재현되었으며, 온라인 체험을 위해 등록이 필요하지 않습니다.

추천서를 요청하려면 교수에게 이메일을 작성하세요.

0-임계값 복제 솔루션이 업그레이드되었으며, 오픈 소스 모델이 완전히 재현되었으며, 온라인 체험을 위해 등록이 필요하지 않습니다.

RLHF가 추가로 도입되었지만, 때문에 컴퓨팅 성능 데이터 세트가 제한되어 있기 때문에 일부 시나리오에서는 실제 성능이 개선될 여지가 여전히 남아 있습니다.

0-임계값 복제 솔루션이 업그레이드되었으며, 오픈 소스 모델이 완전히 재현되었으며, 온라인 체험을 위해 등록이 필요하지 않습니다.다행히도 과거와 달리 대규모 AI 모델과 첨단 기술은 소수의 거대 기술 기업들만이 독점하고 있었으며 PyTorch, Hugging Face, OpenAI와 같은 스타트업도 핵심적인 역할을 했습니다. 이번 웨이브에서의 역할. Colossal-AI는 오픈 소스 커뮤니티의 성공적인 경험을 바탕으로 모든 당사자가 공동 구축에 참여하고 대형 모델 시대를 맞이하는 것을 환영합니다!

다음 방법으로 연락하거나 참여할 수 있습니다.

1. GitHub에 문제를 게시하거나 PR(풀 요청)을 제출하세요.

2. Colossal-AI 사용자 WeChat 또는 Slack 그룹에 가입하세요. communications

3 . 이메일 youy@comp.nus.edu.sg

로 정식 협력 제안을 보내주세요. 오픈 소스 주소:

​https://github.com/hpcaitech/ColossalAI​

위 내용은 0-임계값 복제 솔루션이 업그레이드되었으며, 오픈 소스 모델이 완전히 재현되었으며, 온라인 체험을 위해 등록이 필요하지 않습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

VSCODE 용 헤더 파일을 정의하는 방법 VSCODE 용 헤더 파일을 정의하는 방법 Apr 15, 2025 pm 09:09 PM

Visual Studio 코드를 사용하여 헤더 파일을 정의하는 방법은 무엇입니까? .h 또는 .hpp 접미사 이름 (예 : 클래스, 함수, 변수)을 사용하여 헤더 파일을 만들고 기호를 선언합니다. 소스 파일에 헤더 파일을 포함시키기 위해 #include 지시문을 사용하여 프로그램을 컴파일합니다. 헤더 파일이 포함되어 있고 선언 된 기호를 사용할 수 있습니다.

Visual Studio Code에서 C를 사용하십니까? Visual Studio Code에서 C를 사용하십니까? Apr 15, 2025 pm 08:03 PM

C 코드에서 C를 쓰는 것은 가능할뿐만 아니라 효율적이고 우아합니다. 핵심은 코드 완료, 구문 강조 및 디버깅과 같은 기능을 제공하는 우수한 C/C 확장 기능을 설치하는 것입니다. VS Code의 디버깅 기능은 버그를 신속하게 찾는 데 도움이되며 Printf 출력은 구식이지만 효과적인 디버깅 방법입니다. 또한 동적 메모리 할당되면 메모리 누출을 방지하기 위해 반환 값을 확인하고 메모리를 풀어야하며 이러한 문제를 디버깅하는 것이 VS 코드에서 편리합니다. VS 코드는 성능 최적화에 직접 도움을 줄 수는 없지만 코드 성능을 쉽게 분석 할 수있는 우수한 개발 환경을 제공합니다. 좋은 프로그래밍 습관, 가독성 및 유지 관리도 중요합니다. 어쨌든, 대 코드는입니다

Docker는 Yaml을 사용합니다 Docker는 Yaml을 사용합니다 Apr 15, 2025 am 07:21 AM

Yaml은 Docker의 컨테이너, 이미지 및 서비스를 구성하는 데 사용됩니다. 구성하려면 : 컨테이너의 경우 Docker-Compose.yml에 이름, 이미지, 포트 및 환경 변수를 지정하십시오. 이미지의 경우 기본 이미지, 빌드 명령 및 기본 명령이 DockerFile에 제공됩니다. 서비스의 경우 Docker-Compose.service.yml에 이름, 미러, 포트, 볼륨 및 환경 변수를 설정하십시오.

Docker가 공개 이미지를 관리하는 데 사용하는 플랫폼 Docker가 공개 이미지를 관리하는 데 사용하는 플랫폼 Apr 15, 2025 am 07:06 AM

Docker Image Hosting Platform은 Docker 이미지를 관리하고 저장하는 데 사용되므로 개발자와 사용자가 사전 제작 된 소프트웨어 환경에 쉽게 액세스하고 사용할 수 있습니다. 일반적인 플랫폼에는 다음이 포함됩니다 : Docker Hub : Docker가 공식적으로 유지하고 거대한 미러 라이브러리가 있습니다. Github 컨테이너 레지스트리 : Github 생태계를 통합합니다. Google 컨테이너 레지스트리 : Google Cloud Platform에서 호스팅했습니다. Amazon Elastic Container 레지스트리 : AWS가 호스팅합니다. Quay.io : Red Hat에 의해

Docker는 어떤 기본 기술을 사용합니까? Docker는 어떤 기본 기술을 사용합니까? Apr 15, 2025 am 07:09 AM

Docker는 컨테이너 엔진, 미러 형식, 스토리지 드라이버, 네트워크 모델, 컨테이너 오케스트레이션 도구, 운영 체제 가상화 및 컨테이너 레지스트리를 사용하여 컨테이너화 기능을 지원하여 경량, 휴대용 및 자동화 된 응용 프로그램 배포 및 관리를 제공합니다.

VSCODE 또는 Visual Studio가 더 좋습니다 VSCODE 또는 Visual Studio가 더 좋습니다 Apr 15, 2025 pm 08:36 PM

특정 요구와 프로젝트 규모에 따라 가장 적합한 IDE : 대규모 프로젝트 (특히 C#, C) 및 복잡한 디버깅 : Visual Studio를 선택하십시오. 소규모 프로젝트, 빠른 프로토 타이핑, 낮은 구성 시스템 : vs 코드, 경량, 빠른 시작 속도, 낮은 리소스 활용 및 매우 높은 확장 성. 궁극적으로, Code and Visual Studio 대를 시도하고 경험하면 최상의 솔루션을 찾을 수 있습니다. 최상의 결과를 위해 둘 다 사용을 고려할 수도 있습니다.

Docker는 MacVlan을 사용합니다 Docker는 MacVlan을 사용합니다 Apr 15, 2025 am 06:57 AM

Docker의 MacVlan은 컨테이너가 자체 MAC 주소를 가질 수 있도록하는 Linux 커널 모듈로 네트워크 격리, 성능 향상 및 실제 네트워크와의 직접 상호 작용을 가능하게합니다. MacVlan 사용은 다음과 같습니다. 1. 커널 모듈을 설치하십시오. 2. MacVlan 네트워크를 만듭니다. 3. IP 주소 세그먼트 할당; 4. 컨테이너 생성시 MacVlan 네트워크를 지정하십시오. 5. 연결을 확인하십시오.

vscode가 Kotlin을 실행할 수 있습니다 vscode가 Kotlin을 실행할 수 있습니다 Apr 15, 2025 pm 06:57 PM

VS 코드에서 Kotlin을 실행하는 다음 환경 구성이 필요합니다. Java Development Kit (JDK) 및 Kotlin Compiler Kotlin 관련 플러그인 (예 : Kotlin Langu

See all articles