스탠포드의 70억 매개변수 '알파카'의 단점을 보완하기 위해 중국어에 능통한 대형 모델이 등장해 오픈소스화됐다.

PHPz
풀어 주다: 2023-03-31 22:39:14
앞으로
1784명이 탐색했습니다.

BELLE은 Stanford Alpaca를 기반으로 하며 중국어에 최적화되어 있습니다. 모델 튜닝은 ChatGPT에서 생성된 데이터만 사용합니다(다른 데이터는 포함하지 않음).

ChatGPT가 처음 출시된 지 거의 4개월이 지났습니다. 지난주 GPT-4가 출시되자 ChatGPT는 즉시 새 버전을 출시했습니다. 그러나 잘 알려진 비밀은 ChatGPT나 GPT-4 모두 오픈 소스가 아닐 가능성이 높다는 것입니다. 컴퓨팅 성능과 대규모 교육 데이터에 대한 막대한 투자와 함께 연구 커뮤니티가 구현 프로세스를 복제하는 데는 많은 장애물이 있습니다.

ChatGPT 등 대형 모델의 맹공격에 직면한 상황에서는 오픈소스 교체가 좋은 선택입니다. 이달 초 Meta는 매개변수가 70억에서 650억에 이르는 새로운 대형 모델 시리즈인 LLaMA(Large Language Model Meta AI)를 "오픈 소스"로 공개했습니다. 130억 매개변수 LLaMA 모델은 "대부분의 벤치마크에서" 1,750억 매개변수 GPT-3보다 성능이 뛰어나며 단일 V100 GPU에서 실행될 수 있습니다.

며칠 후 Stanford는 LLaMA 7B를 기반으로 70억 개의 매개변수를 갖춘 새로운 모델 Alpaca를 미세 조정하고 52K 명령 데이터를 생성하기 위해 Self-Instruct 논문에 소개된 기술을 사용했으며 예비적으로 몇 가지 수정을 가했습니다. 인간 평가에서 Alpaca 7B 모델은 Self-Instruct 수업 평가에 대한 text-davinci-003(GPT-3.5) 모델과 유사하게 수행됩니다.

하지만 아쉽게도 알파카의 시드 작업은 모두 영어로 되어 있고, 수집된 데이터도 영어로 되어 있어 훈련된 모델이 중국어에 최적화되어 있지 않습니다. 중국어 대화 모델의 효율성을 높이기 위해 더 좋은 방법이 있습니까? 걱정하지 마십시오. 다음에 소개할 프로젝트는 이 문제를 매우 잘 해결할 수 있습니다.

70억 개의 매개변수를 갖춘 오픈 소스 중국어 대화 대형 모델BELLE(Bloom-Enhanced Large Language Model Engine)이 출시되었습니다. Stanford의 Alpaca를 기반으로 하지만 중국어 최적화 및 생성된 코드에 대한 일부 수정이 포함되었습니다. 뿐만 아니라 모델 튜닝은 ChatGPT에서 생성된 데이터만 사용합니다(다른 데이터는 포함하지 않음).

데이터 측면에서 본 프로젝트는 알파카를 기반으로 한 데이터 수집 코드를 오픈소스로 공개했으며, 이 코드를 기반으로 BLOOMZ에서 얻은 체크포인트인 알파카의 영어 데이터 5만 개를 결합해 생성했습니다. 7B 모델 트레이닝이 Hugging Face에 업로드되었습니다.

Hugging Face 주소: https://huggingface.co/BelleGroup

프로젝트 작성자는 다음과 같이 말했습니다. 이 프로젝트는 중국어 대화 대형 모델 오픈 소스 커뮤니티의 발전을 촉진하는 것을 목표로 합니다.

스탠포드의 70억 매개변수 알파카의 단점을 보완하기 위해 중국어에 능통한 대형 모델이 등장해 오픈소스화됐다.

프로젝트 주소: https://github.com/LianjiaTech/BELLE

프로젝트 소개

프로젝트는 주로 다음 네 부분으로 구성됩니다.

  • 175 중국 종자 작업
  • 데이터 생성 코드
  • 0.5 M 생성 데이터
  • BLOOMZ-7B1-mt 최적화 모델 기반

데이터 릴리스

1. zh_seed_tasks.jsonl: 175개의 시드 작업이 포함되어 있으며 샘플은 다음과 같습니다

{"id": "seed_task_20 ", "name": "horror_movie_opening", "instruction": "공포 영화의 창의적인 오프닝 장면을 작성해야 합니다.", "instances": [{"input": "","output":" Sun. 산에는 텅 빈 거리에 바람이 불어오고, 바깥으로 나가는 모든 사람에게 한기를 불어넣는다. 갑자기 바람에 흩날리는 나뭇잎의 바스락거리는 소리만이 정적을 꿰뚫는다. 유리가 깨지는 소리가 들렸다. 한 집에 불이 들어오고, 한 인물이 마을 중심을 향해 달려오는 것이 보였다. 그 인물이 가까이 다가가자 온몸에 피가 흥건한 젊은 여성이 보였다. ],"is_classification": false}

2.prompt_cn.txt:

3.0.5M 생성 데이터

를 생성하는 데 사용됩니다. Alpaca의 방법을 따르세요:

pip install -r require.txt

export OPENAI_API_KEY=YOUR_API_KEY

python generate_instruction.py generate_instruction_following_data


기본적으로 완성 API를 사용하세요. 모델은 text-davinci-003입니다. Chat API를 사용하고 gpt-3.5-turbo 모델을 사용하려는 경우 매개변수를 통해 제어할 수 있습니다:
python generate_instruction.py generate_instruction_following_data

--api=chat --model_name=gpt-3.5-turbo

The 출력 파일은 Belle.train.json에 있으며 사용하기 전에 수동으로 필터링할 수 있습니다.

모델 튜닝

이 프로젝트는 BLOOMZ-7B1-mt 모델과 Belle.train.json 교육 모델을 기반으로 하며 구체적인 매개변수는 다음과 같습니다.

또한 프로젝트에서는 다양한 모델을 채택합니다. 저울(200,000, 600,000, 1,000,000 및 2,000,000개 샘플)이며 다양한 모델 버전은 다음과 같이 얻습니다. 스탠포드의 70억 매개변수 알파카의 단점을 보완하기 위해 중국어에 능통한 대형 모델이 등장해 오픈소스화됐다.

스탠포드의 70억 매개변수 알파카의 단점을 보완하기 위해 중국어에 능통한 대형 모델이 등장해 오픈소스화됐다.

모델 사용 예

스탠포드의 70억 매개변수 알파카의 단점을 보완하기 위해 중국어에 능통한 대형 모델이 등장해 오픈소스화됐다.

제한 및 사용 제한

현재 데이터와 기본 모델을 기반으로 훈련된 SFT 모델은 여전히 ​​효과 측면에서 다음과 같은 문제를 안고 있습니다.

  • 사실에 따른 지시사항은 사실에 어긋나는 잘못된 답변을 제공할 수도 있습니다.
  • 위험한 지시사항을 잘 식별할 수 없어 유해한 발언이 발생합니다.
  • 추론, 코딩 등과 관련된 일부 시나리오에서는 모델의 기능을 여전히 개선해야 합니다.
  • 위 모델의 한계에 따라 이 프로젝트에서는 개발자가 이 프로젝트에서 생성된 오픈 소스 코드, 데이터, 모델 및 후속 파생물을 연구 목적으로만 사용해야 하며 상업적 용도나 사회에 해를 끼칠 수 있는 기타 목적으로는 사용할 수 없습니다. 사용.

위 내용은 스탠포드의 70억 매개변수 '알파카'의 단점을 보완하기 위해 중국어에 능통한 대형 모델이 등장해 오픈소스화됐다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:51cto.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
최신 이슈
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿