이 블로그 게시물은 Microsoft의 PHI-2 언어 모델을 탐구하여 성능을 다른 모델과 비교하고 교육 프로세스를 자세히 설명합니다. 우리는 또한 Transformers 라이브러리 및 Hugging Face 롤 플레잉 데이터 세트를 사용하여 PHI-2에 액세스하고 미세 조정하는 방법을 다룹니다.
Microsoft의 "Phi"시리즈의 27 억 개가 모형 모델 인 PHI-2는 비교적 작은 크기에도 불구하고 최첨단 성능을 목표로합니다. NLP 및 코딩에 중점을 둔 합성 및 웹 데이터 세트에서 1 조 1 조 개의 토큰으로 훈련 된 변압기 아키텍처를 사용합니다. 많은 대형 모델과 달리 PHI-2는 명령 미세 조정 또는 RLHF가없는 기본 모델입니다.
두 가지 주요 측면이 Phi-2의 발전을 주도했습니다 :
고품질 교육 데이터 :
합성 데이터 세트 및 고 부가가치 웹 컨텐츠를 포함한 "교과서 품질"데이터 우선 순위, 상식 추론, 일반적인 지식 및 과학적 이해를 심어줍니다.스케일링 지식 전송 : 13 억 파라미터 PHI-1.5 모델에서 지식을 활용하여 훈련을 가속화하고 벤치 마크 점수를 높이기 위해.
유사한 LLM을 구축하는 것에 대한 통찰력은 Master LLM Concepts 코스를 고려하십시오.
파이프 라인을 사용해 봅시다 (최신 및
가 설치되어 있는지 확인하십시오).
hieunguyenminh/roleplay
!pip install -q -U transformers !pip install -q -U accelerate from transformers import pipeline model_name = "microsoft/phi-2" pipe = pipeline( "text-generation", model=model_name, device_map="auto", trust_remote_code=True, )
훈련
from IPython.display import Markdown prompt = "Please create a Python application that can change wallpapers automatically." outputs = pipe( prompt, max_new_tokens=300, do_sample=True, temperature=0.7, top_k=50, top_p=0.95, ) Markdown(outputs[0]["generated_text"])
%%capture %pip install -U bitsandbytes %pip install -U transformers %pip install -U peft %pip install -U accelerate %pip install -U datasets %pip install -U trl
from transformers import ( AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig, TrainingArguments, pipeline, logging, ) from peft import ( LoraConfig, PeftModel, prepare_model_for_kbit_training, get_peft_model, ) import os, torch from datasets import load_dataset from trl import SFTTrainer
결론 이 튜토리얼은 Microsoft의 PHI-2, 성능, 교육 및 미세 조정에 대한 포괄적 인 개요를 제공했습니다. 이 작은 모델을 미세 조정하는 기능은 사용자 정의 응용 프로그램 및 배포의 가능성을 효율적으로 열어줍니다. Langchain과 같은 프레임 워크를 사용하여 LLM 애플리케이션을 구축하는 데 대한 추가 탐색이 권장됩니다.
위 내용은 PHI-2를 시작하는 것의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!