BELLE은 Stanford Alpaca를 기반으로 하며 중국어에 최적화되어 있습니다. 모델 튜닝은 ChatGPT에서 생성된 데이터만 사용합니다(다른 데이터는 포함하지 않음).
ChatGPT가 처음 출시된 지 거의 4개월이 지났습니다. 지난주 GPT-4가 출시되자 ChatGPT는 즉시 새 버전을 출시했습니다. 그러나 잘 알려진 비밀은 ChatGPT나 GPT-4 모두 오픈 소스가 아닐 가능성이 높다는 것입니다. 컴퓨팅 성능과 대규모 교육 데이터에 대한 막대한 투자와 함께 연구 커뮤니티가 구현 프로세스를 복제하는 데는 많은 장애물이 있습니다.
ChatGPT 등 대형 모델의 맹공격에 직면한 상황에서는 오픈소스 교체가 좋은 선택입니다. 이달 초 Meta는 매개변수가 70억에서 650억에 이르는 새로운 대형 모델 시리즈인 LLaMA(Large Language Model Meta AI)를 "오픈 소스"로 공개했습니다. 130억 매개변수 LLaMA 모델은 "대부분의 벤치마크에서" 1,750억 매개변수 GPT-3보다 성능이 뛰어나며 단일 V100 GPU에서 실행될 수 있습니다.
며칠 후 Stanford는 LLaMA 7B를 기반으로 70억 개의 매개변수를 갖춘 새로운 모델 Alpaca를 미세 조정하고 52K 명령 데이터를 생성하기 위해 Self-Instruct 논문에 소개된 기술을 사용했으며 예비적으로 몇 가지 수정을 가했습니다. 인간 평가에서 Alpaca 7B 모델은 Self-Instruct 수업 평가에 대한 text-davinci-003(GPT-3.5) 모델과 유사하게 수행됩니다.
하지만 아쉽게도 알파카의 시드 작업은 모두 영어로 되어 있고, 수집된 데이터도 영어로 되어 있어 훈련된 모델이 중국어에 최적화되어 있지 않습니다. 중국어 대화 모델의 효율성을 높이기 위해 더 좋은 방법이 있습니까? 걱정하지 마십시오. 다음에 소개할 프로젝트는 이 문제를 매우 잘 해결할 수 있습니다.
70억 개의 매개변수를 갖춘 오픈 소스 중국어 대화 대형 모델BELLE(Bloom-Enhanced Large Language Model Engine)이 출시되었습니다. Stanford의 Alpaca를 기반으로 하지만 중국어 최적화 및 생성된 코드에 대한 일부 수정이 포함되었습니다. 뿐만 아니라 모델 튜닝은 ChatGPT에서 생성된 데이터만 사용합니다(다른 데이터는 포함하지 않음).
데이터 측면에서 본 프로젝트는 알파카를 기반으로 한 데이터 수집 코드를 오픈소스로 공개했으며, 이 코드를 기반으로 BLOOMZ에서 얻은 체크포인트인 알파카의 영어 데이터 5만 개를 결합해 생성했습니다. 7B 모델 트레이닝이 Hugging Face에 업로드되었습니다.
Hugging Face 주소: https://huggingface.co/BelleGroup
프로젝트 작성자는 다음과 같이 말했습니다. 이 프로젝트는 중국어 대화 대형 모델 오픈 소스 커뮤니티의 발전을 촉진하는 것을 목표로 합니다.
프로젝트 주소: https://github.com/LianjiaTech/BELLE
프로젝트는 주로 다음 네 부분으로 구성됩니다.
데이터 릴리스
1. zh_seed_tasks.jsonl: 175개의 시드 작업이 포함되어 있으며 샘플은 다음과 같습니다
{"id": "seed_task_20 ", "name": "horror_movie_opening", "instruction": "공포 영화의 창의적인 오프닝 장면을 작성해야 합니다.", "instances": [{"input": "","output":" Sun. 산에는 텅 빈 거리에 바람이 불어오고, 바깥으로 나가는 모든 사람에게 한기를 불어넣는다. 갑자기 바람에 흩날리는 나뭇잎의 바스락거리는 소리만이 정적을 꿰뚫는다. 유리가 깨지는 소리가 들렸다. 한 집에 불이 들어오고, 한 인물이 마을 중심을 향해 달려오는 것이 보였다. 그 인물이 가까이 다가가자 온몸에 피가 흥건한 젊은 여성이 보였다. ],"is_classification": false}
2.prompt_cn.txt:
3.0.5M 생성 데이터
를 생성하는 데 사용됩니다. Alpaca의 방법을 따르세요:
pip install -r require.txtexport OPENAI_API_KEY=YOUR_API_KEY
python generate_instruction.py generate_instruction_following_data
기본적으로 완성 API를 사용하세요. 모델은 text-davinci-003입니다. Chat API를 사용하고 gpt-3.5-turbo 모델을 사용하려는 경우 매개변수를 통해 제어할 수 있습니다:
python generate_instruction.py generate_instruction_following_data
--api=chat --model_name=gpt-3.5-turbo
The 출력 파일은 Belle.train.json에 있으며 사용하기 전에 수동으로 필터링할 수 있습니다.
모델 튜닝
이 프로젝트는 BLOOMZ-7B1-mt 모델과 Belle.train.json 교육 모델을 기반으로 하며 구체적인 매개변수는 다음과 같습니다.
또한 프로젝트에서는 다양한 모델을 채택합니다. 저울(200,000, 600,000, 1,000,000 및 2,000,000개 샘플)이며 다양한 모델 버전은 다음과 같이 얻습니다.
모델 사용 예
제한 및 사용 제한
현재 데이터와 기본 모델을 기반으로 훈련된 SFT 모델은 여전히 효과 측면에서 다음과 같은 문제를 안고 있습니다.
위 내용은 스탠포드의 70억 매개변수 '알파카'의 단점을 보완하기 위해 중국어에 능통한 대형 모델이 등장해 오픈소스화됐다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!