이 튜토리얼은 자연 언어 처리 작업을위한 Mistral 7B 언어 모델을 사용하고 미세 조정하는 것에 대한 포괄적 인 안내서를 제공합니다. 모델 액세스를 위해 Kaggle을 활용하고, 추론을 수행하고, 양자화 기술을 적용하고, 모델을 미세 조정하고, 어댑터를 병합하고, Hugging Face Hub에 배치하는 법을 배웁니다.
<code>!pip install -q -U transformers !pip install -q -U accelerate !pip install -q -U bitsandbytes</code>
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, pipeline
import torch
bnb_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_quant_type="nf4",
bnb_4bit_use_double_quant=True,
)
데이터 세트에서 미세 조정 된 미스트랄 7b를 안내합니다. 튜토리얼은 또한 추가 컨텍스트를 위해 미세 조정 라마 2에 대한 안내서를 참조합니다.
설정
transformers
SFT 훈련
<code>!pip install -q -U transformers !pip install -q -U accelerate !pip install -q -U bitsandbytes</code>
위 내용은 Mistral 7b 튜토리얼 : 사용 및 미세 조정 미래 7b에 대한 단계별 안내서의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!