Jadual Kandungan
Mengakses Mistral 7b
Model ini dimuatkan dengan ketepatan 4-bit:
Tokenizer dimuatkan dan dikonfigurasi:
penyesuai lora ditambah untuk penalaan halus yang cekap:
hujah latihan ditakrifkan:
sfttrainer dikonfigurasi dan latihan dimulakan:
Rumah Peranti teknologi AI Mistral 7b Tutorial: Panduan Langkah demi Langkah untuk Menggunakan dan Menyempurnakan Mistral 7b

Mistral 7b Tutorial: Panduan Langkah demi Langkah untuk Menggunakan dan Menyempurnakan Mistral 7b

Mar 09, 2025 am 10:37 AM

Tutorial ini menyediakan panduan yang komprehensif untuk menggunakan dan menyempurnakan model bahasa Mistral 7B untuk tugas pemprosesan bahasa semula jadi. Anda akan belajar untuk memanfaatkan Kaggle untuk akses model, melakukan kesimpulan, memohon teknik kuantisasi, menyempurnakan model, menggabungkan penyesuai, dan digunakan ke hab muka yang memeluk.

Mengakses Mistral 7b

Mistral 7b boleh diakses melalui pelbagai platform termasuk muka memeluk, puncak AI, meniru, sagemaker jumpstart, dan baseten. Tutorial ini memberi tumpuan kepada menggunakan ciri "Model" Kaggle untuk akses yang diperkemas, menghapuskan keperluan untuk muat turun manual.

Bahagian ini menunjukkan memuatkan model dari kaggle dan melakukan kesimpulan. Kemas kini perpustakaan penting adalah penting untuk mengelakkan kesilapan:

<code>!pip install -q -U transformers
!pip install -q -U accelerate
!pip install -q -U bitsandbytes</code>
Salin selepas log masuk
Salin selepas log masuk

kuantisasi 4-bit dengan konfigurasi NF4 menggunakan Bitsandbytes meningkatkan kelajuan pemuatan dan mengurangkan penggunaan memori:

<code>from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, pipeline
import torch

bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_quant_type="nf4",
    bnb_4bit_use_double_quant=True,
)</code>
Salin selepas log masuk
Salin selepas log masuk

Menambah model Mistral 7B ke Notebook Kaggle anda melibatkan langkah -langkah ini:

  1. Klik "Tambah Model" di panel kanan.
  2. Cari "Mistral 7b", pilih "7b-v0.1-hf", dan tambahkannya.
  3. Perhatikan laluan direktori.

Mistral 7B Tutorial: A Step-by-Step Guide to Using and Fine-Tuning Mistral 7B

Model dan pemuatan tokenizer menggunakan perpustakaan

: transformers

<code>model_name = "/kaggle/input/mistral/pytorch/7b-v0.1-hf/1"

tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
        model_name,
        load_in_4bit=True,
        quantization_config=bnb_config,
        torch_dtype=torch.bfloat16,
        device_map="auto",
        trust_remote_code=True,
    )</code>
Salin selepas log masuk
kesimpulan dipermudahkan menggunakan fungsi

: pipeline

<code>pipe = pipeline(
    "text-generation", 
    model=model, 
    tokenizer = tokenizer, 
    torch_dtype=torch.bfloat16, 
    device_map="auto"
)</code>
Salin selepas log masuk
mendorong model dan menetapkan parameter:

<code>prompt = "As a data scientist, can you explain the concept of regularization in machine learning?"

sequences = pipe(
    prompt,
    do_sample=True,
    max_new_tokens=100, 
    temperature=0.7, 
    top_k=50, 
    top_p=0.95,
    num_return_sequences=1,
)
print(sequences[0]['generated_text'])</code>
Salin selepas log masuk
Mistral 7b Fine-Tuning

Bahagian ini membimbing anda melalui Mistral 7b penalaan pada

dataset, menggunakan teknik seperti PEFT, kuantisasi 4-bit, dan qlora. Tutorial juga merujuk panduan mengenai Llama 2 penalaan untuk konteks selanjutnya. guanaco-llama2-1k

persediaan

perpustakaan yang diperlukan dipasang:

<code>%%capture
%pip install -U bitsandbytes
%pip install -U transformers
%pip install -U peft
%pip install -U accelerate
%pip install -U trl</code>
Salin selepas log masuk
modul yang relevan diimport:

<code>from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig,HfArgumentParser,TrainingArguments,pipeline, logging
from peft import LoraConfig, PeftModel, prepare_model_for_kbit_training, get_peft_model
import os,torch, wandb
from datasets import load_dataset
from trl import SFTTrainer</code>
Salin selepas log masuk
kekunci API diuruskan dengan selamat menggunakan rahsia Kaggle:

<code>from kaggle_secrets import UserSecretsClient
user_secrets = UserSecretsClient()
secret_hf = user_secrets.get_secret("HUGGINGFACE_TOKEN")
secret_wandb = user_secrets.get_secret("wandb")</code>
Salin selepas log masuk
memeluk muka dan berat & bias dikonfigurasikan:

<code>!huggingface-cli login --token $secret_hf
wandb.login(key = secret_wandb)
run = wandb.init(
    project='Fine tuning mistral 7B', 
    job_type="training", 
    anonymous="allow"
)</code>
Salin selepas log masuk
model asas, dataset, dan nama model baru ditakrifkan:

<code>base_model = "/kaggle/input/mistral/pytorch/7b-v0.1-hf/1"
dataset_name = "mlabonne/guanaco-llama2-1k"
new_model = "mistral_7b_guanaco"</code>
Salin selepas log masuk
pemuatan data

dataset dimuatkan dan sampel dipaparkan:

<code>dataset = load_dataset(dataset_name, split="train")
dataset["text"][100]</code>
Salin selepas log masuk

Mistral 7B Tutorial: A Step-by-Step Guide to Using and Fine-Tuning Mistral 7B Memuatkan Mistral 7b

Model ini dimuatkan dengan ketepatan 4-bit:

Memuatkan tokenizer
<code>bnb_config = BitsAndBytesConfig(  
    load_in_4bit= True,
    bnb_4bit_quant_type= "nf4",
    bnb_4bit_compute_dtype= torch.bfloat16,
    bnb_4bit_use_double_quant= False,
)
model = AutoModelForCausalLM.from_pretrained(
        base_model,
        load_in_4bit=True,
        quantization_config=bnb_config,
        torch_dtype=torch.bfloat16,
        device_map="auto",
        trust_remote_code=True,
)
model.config.use_cache = False
model.config.pretraining_tp = 1
model.gradient_checkpointing_enable()</code>
Salin selepas log masuk

Tokenizer dimuatkan dan dikonfigurasi:

Menambah penyesuai
<code>tokenizer = AutoTokenizer.from_pretrained(base_model, trust_remote_code=True)
tokenizer.padding_side = 'right'
tokenizer.pad_token = tokenizer.eos_token
tokenizer.add_eos_token = True
tokenizer.add_bos_token, tokenizer.add_eos_token</code>
Salin selepas log masuk

penyesuai lora ditambah untuk penalaan halus yang cekap:

HyperParameters
<code>model = prepare_model_for_kbit_training(model)
peft_config = LoraConfig(
    lora_alpha=16,
    lora_dropout=0.1,
    r=64,
    bias="none",
    task_type="CAUSAL_LM",
    target_modules=["q_proj", "k_proj", "v_proj", "o_proj","gate_proj"]
)
model = get_peft_model(model, peft_config)</code>
Salin selepas log masuk

hujah latihan ditakrifkan:

latihan sft
<code>training_arguments = TrainingArguments(
    output_,
    num_train_epochs=1,
    per_device_train_batch_size=4,
    gradient_accumulation_steps=1,
    optim="paged_adamw_32bit",
    save_steps=25,
    logging_steps=25,
    learning_rate=2e-4,
    weight_decay=0.001,
    fp16=False,
    bf16=False,
    max_grad_norm=0.3,
    max_steps=-1,
    warmup_ratio=0.03,
    group_by_length=True,
    lr_scheduler_type="constant",
    report_to="wandb"
)</code>
Salin selepas log masuk

sfttrainer dikonfigurasi dan latihan dimulakan:

<code>!pip install -q -U transformers
!pip install -q -U accelerate
!pip install -q -U bitsandbytes</code>
Salin selepas log masuk
Salin selepas log masuk

Mistral 7B Tutorial: A Step-by-Step Guide to Using and Fine-Tuning Mistral 7B

menjimatkan dan menolak model

Model halus diselamatkan dan ditolak ke hab muka yang memeluk:

<code>from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, pipeline
import torch

bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_quant_type="nf4",
    bnb_4bit_use_double_quant=True,
)</code>
Salin selepas log masuk
Salin selepas log masuk
Penilaian Model

Prestasi model dinilai menggunakan berat & bias. Contoh kesimpulan disediakan.

menggabungkan penyesuai

penyesuai digabungkan dengan model asas, dan model yang dihasilkan ditekan untuk memeluk muka.

mengakses model yang disesuaikan dengan baik

Model yang digabungkan dimuatkan dari wajah yang memeluk dan kesimpulan ditunjukkan.

Kesimpulan

Tutorial menyimpulkan dengan ringkasan keupayaan Mistral 7B dan rekap langkah-langkah yang terlibat dalam mengakses, menyempurnakan, dan menggunakan model. Sumber dan Soalan Lazim juga termasuk. Penekanannya adalah untuk menyediakan panduan praktikal bagi pengguna untuk bekerja dengan model bahasa yang kuat ini.

Atas ialah kandungan terperinci Mistral 7b Tutorial: Panduan Langkah demi Langkah untuk Menggunakan dan Menyempurnakan Mistral 7b. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

Video Face Swap

Video Face Swap

Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Penjana Seni AI Terbaik (Percuma & amp; Dibayar) untuk projek kreatif Penjana Seni AI Terbaik (Percuma & amp; Dibayar) untuk projek kreatif Apr 02, 2025 pm 06:10 PM

Artikel ini mengkaji semula penjana seni AI atas, membincangkan ciri -ciri mereka, kesesuaian untuk projek kreatif, dan nilai. Ia menyerlahkan Midjourney sebagai nilai terbaik untuk profesional dan mengesyorkan Dall-E 2 untuk seni berkualiti tinggi dan disesuaikan.

Bermula dengan Meta Llama 3.2 - Analytics Vidhya Bermula dengan Meta Llama 3.2 - Analytics Vidhya Apr 11, 2025 pm 12:04 PM

Meta's Llama 3.2: Lompat ke hadapan dalam Multimodal dan Mobile AI META baru -baru ini melancarkan Llama 3.2, kemajuan yang ketara dalam AI yang memaparkan keupayaan penglihatan yang kuat dan model teks ringan yang dioptimumkan untuk peranti mudah alih. Membina kejayaan o

CHATBOTS AI terbaik berbanding (Chatgpt, Gemini, Claude & amp; Lagi) CHATBOTS AI terbaik berbanding (Chatgpt, Gemini, Claude & amp; Lagi) Apr 02, 2025 pm 06:09 PM

Artikel ini membandingkan chatbots AI seperti Chatgpt, Gemini, dan Claude, yang memberi tumpuan kepada ciri -ciri unik mereka, pilihan penyesuaian, dan prestasi dalam pemprosesan bahasa semula jadi dan kebolehpercayaan.

10 Pelanjutan pengekodan AI generatif dalam kod vs yang mesti anda pelajari 10 Pelanjutan pengekodan AI generatif dalam kod vs yang mesti anda pelajari Apr 13, 2025 am 01:14 AM

Hei ada, pengekodan ninja! Apa tugas yang berkaitan dengan pengekodan yang anda telah merancang untuk hari itu? Sebelum anda menyelam lebih jauh ke dalam blog ini, saya ingin anda memikirkan semua kesengsaraan yang berkaitan dengan pengekodan anda-lebih jauh menyenaraikan mereka. Selesai? - Let &#8217

Pembantu Menulis AI Teratas untuk Meningkatkan Penciptaan Kandungan Anda Pembantu Menulis AI Teratas untuk Meningkatkan Penciptaan Kandungan Anda Apr 02, 2025 pm 06:11 PM

Artikel ini membincangkan pembantu penulisan AI terkemuka seperti Grammarly, Jasper, Copy.ai, WriteSonic, dan Rytr, yang memberi tumpuan kepada ciri -ciri unik mereka untuk penciptaan kandungan. Ia berpendapat bahawa Jasper cemerlang dalam pengoptimuman SEO, sementara alat AI membantu mengekalkan nada terdiri

Menjual Strategi AI kepada Pekerja: Manifesto CEO Shopify Menjual Strategi AI kepada Pekerja: Manifesto CEO Shopify Apr 10, 2025 am 11:19 AM

Memo CEO Shopify Tobi Lütke baru -baru ini dengan berani mengisytiharkan penguasaan AI sebagai harapan asas bagi setiap pekerja, menandakan peralihan budaya yang signifikan dalam syarikat. Ini bukan trend seketika; Ini adalah paradigma operasi baru yang disatukan ke p

AV Bytes: Meta ' s llama 3.2, Google's Gemini 1.5, dan banyak lagi AV Bytes: Meta ' s llama 3.2, Google's Gemini 1.5, dan banyak lagi Apr 11, 2025 pm 12:01 PM

Landskap AI minggu ini: Badai kemajuan, pertimbangan etika, dan perdebatan pengawalseliaan. Pemain utama seperti Openai, Google, Meta, dan Microsoft telah melepaskan kemas kini, dari model baru yang terobosan ke peralihan penting di LE

Memilih Penjana Suara AI Terbaik: Pilihan Teratas Ditinjau Memilih Penjana Suara AI Terbaik: Pilihan Teratas Ditinjau Apr 02, 2025 pm 06:12 PM

Artikel ini mengulas penjana suara AI atas seperti Google Cloud, Amazon Polly, Microsoft Azure, IBM Watson, dan Descript, memberi tumpuan kepada ciri -ciri mereka, kualiti suara, dan kesesuaian untuk keperluan yang berbeza.

See all articles