> 기술 주변기기 > 일체 포함 > PHI-2를 시작하는 것

PHI-2를 시작하는 것

William Shakespeare
풀어 주다: 2025-03-08 10:50:11
원래의
840명이 탐색했습니다.

이 블로그 게시물은 Microsoft의 PHI-2 언어 모델을 탐구하여 성능을 다른 모델과 비교하고 교육 프로세스를 자세히 설명합니다. 우리는 또한 Transformers 라이브러리 및 Hugging Face 롤 플레잉 데이터 세트를 사용하여 PHI-2에 액세스하고 미세 조정하는 방법을 다룹니다. Microsoft의 "Phi"시리즈의 27 억 개가 모형 모델 인 PHI-2는 비교적 작은 크기에도 불구하고 최첨단 성능을 목표로합니다. NLP 및 코딩에 중점을 둔 합성 및 웹 데이터 세트에서 1 조 1 조 개의 토큰으로 훈련 된 변압기 아키텍처를 사용합니다. 많은 대형 모델과 달리 PHI-2는 명령 미세 조정 또는 RLHF가없는 기본 모델입니다. 두 가지 주요 측면이 Phi-2의 발전을 주도했습니다 :

고품질 교육 데이터 :

합성 데이터 세트 및 고 부가가치 웹 컨텐츠를 포함한 "교과서 품질"데이터 우선 순위, 상식 추론, 일반적인 지식 및 과학적 이해를 심어줍니다.

스케일링 지식 전송 : 13 억 파라미터 PHI-1.5 모델에서 지식을 활용하여 훈련을 가속화하고 벤치 마크 점수를 높이기 위해.

유사한 LLM을 구축하는 것에 대한 통찰력은 Master LLM Concepts 코스를 고려하십시오.

PHI-2 벤치 마크 PHI-2는 다양한 벤치 마크 (상식 추론, 언어 이해, 수학, 코딩)에서 LLAMA-2 및 MISTRAL과 같은 7B-13B 매개 변수 모델을 능가합니다. 놀랍게도, 그것은 다단계 추론 작업에서 훨씬 더 큰 LLAMA-2-70B를 능가합니다.
  • 이미지 소스 더 작고 쉽게 미세 조정 된 모델에 중점을두면 모바일 장치에 배포 할 수있어 훨씬 더 큰 모델과 비교할 수 있습니다. PHI-2는 Big Bench Hard, Boolq 및 MBPP 벤치 마크에서 Google Gemini Nano 2보다 성능이 뛰어납니다.
  • 이미지 소스
  • 접근 phi-2 Hugging Face Spaces Demo : GPU에서 PHI 2 스트리밍을 통해 PHI-2의 기능을 탐색하십시오. 이 데모는 기본 프롬프트 응답 기능을 제공합니다
  • AI에 새로운? AI 기초 기술 트랙은 좋은 출발점입니다.
추론에

파이프 라인을 사용해 봅시다 (최신 및

가 설치되어 있는지 확인하십시오).

프롬프트를 사용하여 텍스트를 생성하고 및 와 같은 매개 변수를 조정합니다. 마크 다운 출력은 HTML로 변환됩니다

PHI-2의 출력은 인상적이며 설명이 포함 된 코드를 생성합니다

PHI-2 애플리케이션 PHI-2의 소형 크기는 Q & A, 코드 생성 및 기본 대화를위한 랩톱 및 모바일 장치에 사용할 수 있습니다. 미세 조정 phi-2 이 섹션은 peft를 사용하여 데이터 세트에서 미세 조정 PHI-2를 보여줍니다. 설정 및 설치 필요한 라이브러리 가져 오기 :

기본 모델, 데이터 세트 및 미세 조정 된 모델 이름에 대한 변수 정의 :

껴안는 얼굴 로그인

포옹 페이스 API 토큰을 사용하여 로그인하십시오. (실제 토큰 검색 방법으로 교체하십시오)

hieunguyenminh/roleplay 데이터 세트로드 더 빠른 교육을 위해 데이터 세트의 하위 집합을로드하십시오

로딩 모델 및 토큰 화기 메모리 효율을 위해 4 비트 양자화 된 모델을로드하십시오 : 어댑터 층 추가 효율적인 미세 조정을 위해 로라 레이어를 추가하십시오 :
!pip install -q -U transformers
!pip install -q -U accelerate

from transformers import pipeline

model_name = "microsoft/phi-2"

pipe = pipeline(
    "text-generation",
    model=model_name,
    device_map="auto",
    trust_remote_code=True,
)
로그인 후 복사

훈련 교육 인수와 sfttrainer :

from IPython.display import Markdown

prompt = "Please create a Python application that can change wallpapers automatically."

outputs = pipe(
    prompt,
    max_new_tokens=300,
    do_sample=True,
    temperature=0.7,
    top_k=50,
    top_p=0.95,
)
Markdown(outputs[0]["generated_text"])
로그인 후 복사

모델을 저장하고 밀고 미세 조정 모델을 저장하고 업로드하십시오

%%capture
%pip install -U bitsandbytes
%pip install -U transformers
%pip install -U peft
%pip install -U accelerate
%pip install -U datasets
%pip install -U trl
로그인 후 복사

이미지 소스

모델 평가 미세 조정 모델 평가 :

from transformers import (
    AutoModelForCausalLM,
    AutoTokenizer,
    BitsAndBytesConfig,
    TrainingArguments,
    pipeline,
    logging,
)
from peft import (
    LoraConfig,
    PeftModel,
    prepare_model_for_kbit_training,
    get_peft_model,
)
import os, torch
from datasets import load_dataset
from trl import SFTTrainer
로그인 후 복사

결론 이 튜토리얼은 Microsoft의 PHI-2, 성능, 교육 및 미세 조정에 대한 포괄적 인 개요를 제공했습니다. 이 작은 모델을 미세 조정하는 기능은 사용자 정의 응용 프로그램 및 배포의 가능성을 효율적으로 열어줍니다. Langchain과 같은 프레임 워크를 사용하여 LLM 애플리케이션을 구축하는 데 대한 추가 탐색이 권장됩니다.

위 내용은 PHI-2를 시작하는 것의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
저자별 최신 기사
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿