PHI-2를 시작하는 것
이 블로그 게시물은 Microsoft의 PHI-2 언어 모델을 탐구하여 성능을 다른 모델과 비교하고 교육 프로세스를 자세히 설명합니다. 우리는 또한 Transformers 라이브러리 및 Hugging Face 롤 플레잉 데이터 세트를 사용하여 PHI-2에 액세스하고 미세 조정하는 방법을 다룹니다.
Microsoft의 "Phi"시리즈의 27 억 개가 모형 모델 인 PHI-2는 비교적 작은 크기에도 불구하고 최첨단 성능을 목표로합니다. NLP 및 코딩에 중점을 둔 합성 및 웹 데이터 세트에서 1 조 1 조 개의 토큰으로 훈련 된 변압기 아키텍처를 사용합니다. 많은 대형 모델과 달리 PHI-2는 명령 미세 조정 또는 RLHF가없는 기본 모델입니다.
두 가지 주요 측면이 Phi-2의 발전을 주도했습니다 :
고품질 교육 데이터 :
합성 데이터 세트 및 고 부가가치 웹 컨텐츠를 포함한 "교과서 품질"데이터 우선 순위, 상식 추론, 일반적인 지식 및 과학적 이해를 심어줍니다.스케일링 지식 전송 : 13 억 파라미터 PHI-1.5 모델에서 지식을 활용하여 훈련을 가속화하고 벤치 마크 점수를 높이기 위해.
유사한 LLM을 구축하는 것에 대한 통찰력은 Master LLM Concepts 코스를 고려하십시오.
-
이미지 소스
더 작고 쉽게 미세 조정 된 모델에 중점을두면 모바일 장치에 배포 할 수있어 훨씬 더 큰 모델과 비교할 수 있습니다. PHI-2는 Big Bench Hard, Boolq 및 MBPP 벤치 마크에서 Google Gemini Nano 2보다 성능이 뛰어납니다.
이미지 소스 -
접근 phi-2 Hugging Face Spaces Demo : GPU에서 PHI 2 스트리밍을 통해 PHI-2의 기능을 탐색하십시오. 이 데모는 기본 프롬프트 응답 기능을 제공합니다
AI에 새로운? AI 기초 기술 트랙은 좋은 출발점입니다.
파이프 라인을 사용해 봅시다 (최신 및
가 설치되어 있는지 확인하십시오).
프롬프트를 사용하여 텍스트를 생성하고 및 와 같은 매개 변수를 조정합니다. 마크 다운 출력은 HTML로 변환됩니다
PHI-2의 출력은 인상적이며 설명이 포함 된 코드를 생성합니다
포옹 페이스 API 토큰을 사용하여 로그인하십시오. (실제 토큰 검색 방법으로 교체하십시오)
hieunguyenminh/roleplay
!pip install -q -U transformers !pip install -q -U accelerate from transformers import pipeline model_name = "microsoft/phi-2" pipe = pipeline( "text-generation", model=model_name, device_map="auto", trust_remote_code=True, )
훈련
from IPython.display import Markdown prompt = "Please create a Python application that can change wallpapers automatically." outputs = pipe( prompt, max_new_tokens=300, do_sample=True, temperature=0.7, top_k=50, top_p=0.95, ) Markdown(outputs[0]["generated_text"])
%%capture %pip install -U bitsandbytes %pip install -U transformers %pip install -U peft %pip install -U accelerate %pip install -U datasets %pip install -U trl
이미지 소스
모델 평가
from transformers import ( AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig, TrainingArguments, pipeline, logging, ) from peft import ( LoraConfig, PeftModel, prepare_model_for_kbit_training, get_peft_model, ) import os, torch from datasets import load_dataset from trl import SFTTrainer
결론 이 튜토리얼은 Microsoft의 PHI-2, 성능, 교육 및 미세 조정에 대한 포괄적 인 개요를 제공했습니다. 이 작은 모델을 미세 조정하는 기능은 사용자 정의 응용 프로그램 및 배포의 가능성을 효율적으로 열어줍니다. Langchain과 같은 프레임 워크를 사용하여 LLM 애플리케이션을 구축하는 데 대한 추가 탐색이 권장됩니다.
위 내용은 PHI-2를 시작하는 것의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











Vibe Coding은 끝없는 코드 라인 대신 자연 언어를 사용하여 애플리케이션을 생성함으로써 소프트웨어 개발의 세계를 재구성하고 있습니다. Andrej Karpathy와 같은 비전가들로부터 영감을 얻은이 혁신적인 접근 방식은 Dev가

2025 년 2 월은 Generative AI의 또 다른 게임 변화 달이었으며, 가장 기대되는 모델 업그레이드와 획기적인 새로운 기능을 제공합니다. Xai 's Grok 3 및 Anthropic's Claude 3.7 Sonnet, Openai 's G에 이르기까지

Yolo (한 번만 보이면)는 주요 실시간 객체 감지 프레임 워크였으며 각 반복은 이전 버전에서 개선되었습니다. 최신 버전 Yolo V12는 정확도를 크게 향상시키는 발전을 소개합니다.

ChatGpt 4는 현재 이용 가능하고 널리 사용되며 ChatGpt 3.5와 같은 전임자와 비교하여 상황을 이해하고 일관된 응답을 생성하는 데 상당한 개선을 보여줍니다. 향후 개발에는보다 개인화 된 인터가 포함될 수 있습니다

Google Deepmind 's Gencast : 일기 예보를위한 혁신적인 AI 일기 예보는 기초 관측에서 정교한 AI 구동 예측으로 이동하여 극적인 변화를 겪었습니다. Google Deepmind의 Gencast, 획기적인

이 기사에서는 AI 모델이 Lamda, Llama 및 Grok과 같은 Chatgpt를 능가하는 것에 대해 논의하여 정확성, 이해 및 산업 영향의 장점을 강조합니다. (159 자).

이 기사는 최고의 AI 아트 생성기를 검토하여 자신의 기능, 창의적인 프로젝트에 대한 적합성 및 가치에 대해 논의합니다. Midjourney를 전문가에게 최고의 가치로 강조하고 고품질의 사용자 정의 가능한 예술에 Dall-E 2를 추천합니다.

OpenAi의 O1 : 12 일 선물 Spree는 아직 가장 강력한 모델로 시작합니다. 12 월의 도착은 세계의 일부 지역에서 전 세계적으로 속도가 저하 된 눈송이를 가져 오지만 Openai는 막 시작되었습니다. Sam Altman과 그의 팀은 12 일 선물을 시작하고 있습니다.
