


Mistral 7b Tutorial: Panduan Langkah demi Langkah untuk Menggunakan dan Menyempurnakan Mistral 7b
Tutorial ini menyediakan panduan yang komprehensif untuk menggunakan dan menyempurnakan model bahasa Mistral 7B untuk tugas pemprosesan bahasa semula jadi. Anda akan belajar untuk memanfaatkan Kaggle untuk akses model, melakukan kesimpulan, memohon teknik kuantisasi, menyempurnakan model, menggabungkan penyesuai, dan digunakan ke hab muka yang memeluk.
Mengakses Mistral 7b
Mistral 7b boleh diakses melalui pelbagai platform termasuk muka memeluk, puncak AI, meniru, sagemaker jumpstart, dan baseten. Tutorial ini memberi tumpuan kepada menggunakan ciri "Model" Kaggle untuk akses yang diperkemas, menghapuskan keperluan untuk muat turun manual.
Bahagian ini menunjukkan memuatkan model dari kaggle dan melakukan kesimpulan. Kemas kini perpustakaan penting adalah penting untuk mengelakkan kesilapan:
<code>!pip install -q -U transformers !pip install -q -U accelerate !pip install -q -U bitsandbytes</code>
kuantisasi 4-bit dengan konfigurasi NF4 menggunakan Bitsandbytes meningkatkan kelajuan pemuatan dan mengurangkan penggunaan memori:
<code>from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, pipeline import torch bnb_config = BitsAndBytesConfig( load_in_4bit=True, bnb_4bit_quant_type="nf4", bnb_4bit_use_double_quant=True, )</code>
Menambah model Mistral 7B ke Notebook Kaggle anda melibatkan langkah -langkah ini:
- Klik "Tambah Model" di panel kanan.
- Cari "Mistral 7b", pilih "7b-v0.1-hf", dan tambahkannya.
- Perhatikan laluan direktori.
: transformers
<code>model_name = "/kaggle/input/mistral/pytorch/7b-v0.1-hf/1" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained( model_name, load_in_4bit=True, quantization_config=bnb_config, torch_dtype=torch.bfloat16, device_map="auto", trust_remote_code=True, )</code>
: pipeline
<code>pipe = pipeline( "text-generation", model=model, tokenizer = tokenizer, torch_dtype=torch.bfloat16, device_map="auto" )</code>
<code>prompt = "As a data scientist, can you explain the concept of regularization in machine learning?" sequences = pipe( prompt, do_sample=True, max_new_tokens=100, temperature=0.7, top_k=50, top_p=0.95, num_return_sequences=1, ) print(sequences[0]['generated_text'])</code>
Bahagian ini membimbing anda melalui Mistral 7b penalaan pada
dataset, menggunakan teknik seperti PEFT, kuantisasi 4-bit, dan qlora. Tutorial juga merujuk panduan mengenai Llama 2 penalaan untuk konteks selanjutnya. guanaco-llama2-1k
perpustakaan yang diperlukan dipasang:
<code>%%capture %pip install -U bitsandbytes %pip install -U transformers %pip install -U peft %pip install -U accelerate %pip install -U trl</code>
<code>from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig,HfArgumentParser,TrainingArguments,pipeline, logging from peft import LoraConfig, PeftModel, prepare_model_for_kbit_training, get_peft_model import os,torch, wandb from datasets import load_dataset from trl import SFTTrainer</code>
<code>from kaggle_secrets import UserSecretsClient user_secrets = UserSecretsClient() secret_hf = user_secrets.get_secret("HUGGINGFACE_TOKEN") secret_wandb = user_secrets.get_secret("wandb")</code>
<code>!huggingface-cli login --token $secret_hf wandb.login(key = secret_wandb) run = wandb.init( project='Fine tuning mistral 7B', job_type="training", anonymous="allow" )</code>
<code>base_model = "/kaggle/input/mistral/pytorch/7b-v0.1-hf/1" dataset_name = "mlabonne/guanaco-llama2-1k" new_model = "mistral_7b_guanaco"</code>
dataset dimuatkan dan sampel dipaparkan:
<code>dataset = load_dataset(dataset_name, split="train") dataset["text"][100]</code>
Memuatkan Mistral 7b
Model ini dimuatkan dengan ketepatan 4-bit:
Memuatkan tokenizer
<code>bnb_config = BitsAndBytesConfig( load_in_4bit= True, bnb_4bit_quant_type= "nf4", bnb_4bit_compute_dtype= torch.bfloat16, bnb_4bit_use_double_quant= False, ) model = AutoModelForCausalLM.from_pretrained( base_model, load_in_4bit=True, quantization_config=bnb_config, torch_dtype=torch.bfloat16, device_map="auto", trust_remote_code=True, ) model.config.use_cache = False model.config.pretraining_tp = 1 model.gradient_checkpointing_enable()</code>
Tokenizer dimuatkan dan dikonfigurasi:
Menambah penyesuai
<code>tokenizer = AutoTokenizer.from_pretrained(base_model, trust_remote_code=True) tokenizer.padding_side = 'right' tokenizer.pad_token = tokenizer.eos_token tokenizer.add_eos_token = True tokenizer.add_bos_token, tokenizer.add_eos_token</code>
penyesuai lora ditambah untuk penalaan halus yang cekap:
HyperParameters
<code>model = prepare_model_for_kbit_training(model) peft_config = LoraConfig( lora_alpha=16, lora_dropout=0.1, r=64, bias="none", task_type="CAUSAL_LM", target_modules=["q_proj", "k_proj", "v_proj", "o_proj","gate_proj"] ) model = get_peft_model(model, peft_config)</code>
hujah latihan ditakrifkan:
latihan sft
<code>training_arguments = TrainingArguments( output_, num_train_epochs=1, per_device_train_batch_size=4, gradient_accumulation_steps=1, optim="paged_adamw_32bit", save_steps=25, logging_steps=25, learning_rate=2e-4, weight_decay=0.001, fp16=False, bf16=False, max_grad_norm=0.3, max_steps=-1, warmup_ratio=0.03, group_by_length=True, lr_scheduler_type="constant", report_to="wandb" )</code>
sfttrainer dikonfigurasi dan latihan dimulakan:
<code>!pip install -q -U transformers !pip install -q -U accelerate !pip install -q -U bitsandbytes</code>
Model halus diselamatkan dan ditolak ke hab muka yang memeluk:
<code>from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, pipeline import torch bnb_config = BitsAndBytesConfig( load_in_4bit=True, bnb_4bit_quant_type="nf4", bnb_4bit_use_double_quant=True, )</code>
Prestasi model dinilai menggunakan berat & bias. Contoh kesimpulan disediakan.
menggabungkan penyesuai
penyesuai digabungkan dengan model asas, dan model yang dihasilkan ditekan untuk memeluk muka.
mengakses model yang disesuaikan dengan baik
Model yang digabungkan dimuatkan dari wajah yang memeluk dan kesimpulan ditunjukkan.
Kesimpulan
Tutorial menyimpulkan dengan ringkasan keupayaan Mistral 7B dan rekap langkah-langkah yang terlibat dalam mengakses, menyempurnakan, dan menggunakan model. Sumber dan Soalan Lazim juga termasuk. Penekanannya adalah untuk menyediakan panduan praktikal bagi pengguna untuk bekerja dengan model bahasa yang kuat ini.
Atas ialah kandungan terperinci Mistral 7b Tutorial: Panduan Langkah demi Langkah untuk Menggunakan dan Menyempurnakan Mistral 7b. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas

Artikel ini mengkaji semula penjana seni AI atas, membincangkan ciri -ciri mereka, kesesuaian untuk projek kreatif, dan nilai. Ia menyerlahkan Midjourney sebagai nilai terbaik untuk profesional dan mengesyorkan Dall-E 2 untuk seni berkualiti tinggi dan disesuaikan.

Meta's Llama 3.2: Lompat ke hadapan dalam Multimodal dan Mobile AI META baru -baru ini melancarkan Llama 3.2, kemajuan yang ketara dalam AI yang memaparkan keupayaan penglihatan yang kuat dan model teks ringan yang dioptimumkan untuk peranti mudah alih. Membina kejayaan o

Artikel ini membandingkan chatbots AI seperti Chatgpt, Gemini, dan Claude, yang memberi tumpuan kepada ciri -ciri unik mereka, pilihan penyesuaian, dan prestasi dalam pemprosesan bahasa semula jadi dan kebolehpercayaan.

Hei ada, pengekodan ninja! Apa tugas yang berkaitan dengan pengekodan yang anda telah merancang untuk hari itu? Sebelum anda menyelam lebih jauh ke dalam blog ini, saya ingin anda memikirkan semua kesengsaraan yang berkaitan dengan pengekodan anda-lebih jauh menyenaraikan mereka. Selesai? - Let ’

Artikel ini membincangkan pembantu penulisan AI terkemuka seperti Grammarly, Jasper, Copy.ai, WriteSonic, dan Rytr, yang memberi tumpuan kepada ciri -ciri unik mereka untuk penciptaan kandungan. Ia berpendapat bahawa Jasper cemerlang dalam pengoptimuman SEO, sementara alat AI membantu mengekalkan nada terdiri

Memo CEO Shopify Tobi Lütke baru -baru ini dengan berani mengisytiharkan penguasaan AI sebagai harapan asas bagi setiap pekerja, menandakan peralihan budaya yang signifikan dalam syarikat. Ini bukan trend seketika; Ini adalah paradigma operasi baru yang disatukan ke p

Landskap AI minggu ini: Badai kemajuan, pertimbangan etika, dan perdebatan pengawalseliaan. Pemain utama seperti Openai, Google, Meta, dan Microsoft telah melepaskan kemas kini, dari model baru yang terobosan ke peralihan penting di LE

Artikel ini mengulas penjana suara AI atas seperti Google Cloud, Amazon Polly, Microsoft Azure, IBM Watson, dan Descript, memberi tumpuan kepada ciri -ciri mereka, kualiti suara, dan kesesuaian untuk keperluan yang berbeza.
