Membuka Kekuatan Llama 3.2: Panduan Komprehensif untuk Penalaan dan Penempatan Tempatan
Landskap model bahasa besar (LLMS) berkembang pesat, dengan tumpuan kepada model yang lebih kecil dan lebih cekap. Llama 3.2, dengan variasi model ringan dan penglihatannya, mencontohkan trend ini. Tutorial ini memperincikan bagaimana memanfaatkan keupayaan Llama 3.2, khususnya model ringan 3B, untuk penalaan halus pada dataset sokongan pelanggan dan penggunaan tempatan berikutnya menggunakan aplikasi Jan.
Sebelum menyelam, pemula sangat digalakkan untuk menyelesaikan kursus asas AI untuk memahami asas -asas LLM dan AI generatif.
imej oleh pengarang
meneroka model llama 3.2
Model ringan
Sumber: llama 3.2: merevolusi edisi ai dan penglihatan dengan model terbuka dan disesuaikan
Model penglihatan (parameter 11b dan 90b) direka untuk penalaran imej, mampu menafsirkan dokumen dan carta. Keupayaan multimodal mereka berpunca daripada mengintegrasikan pengekod imej pra-terlatih dengan model bahasa. Mereka mengatasi Claude 3 Haiku dan GPT-4O mini dalam tugas pemahaman visual.
Untuk pandangan yang lebih mendalam mengenai seni bina, tanda aras, dan ciri keselamatan Llama 3.2 (Llama Guard 3), rujuk kepada panduan rasmi Llama 3.2.
mengakses llama 3.2 di Kaggle
Walaupun Llama 3.2 adalah sumber terbuka, akses memerlukan penerimaan terma dan syarat. Inilah cara mengaksesnya melalui Kaggle:
transformers
dan accelerate
menggunakan %pip install -U transformers accelerate
. Langkah -langkah seterusnya melibatkan pemuatan tokenizer dan model menggunakan perpustakaan transformers
, menyatakan direktori model tempatan, menetapkan pad_token_id
, mewujudkan saluran paip penjanaan teks, dan menjalankan kesimpulan dengan arahan tersuai. Contoh kod terperinci disediakan dalam buku nota Kaggle yang disertakan. Langkah -langkah yang sama berlaku untuk mengakses model penglihatan Llama 3.2, walaupun keperluan GPU jauh lebih tinggi.
Bahagian ini membimbing anda melalui penalaan halus Llama 3.2 3b mengarahkan model pada dataset sokongan pelanggan menggunakan perpustakaan dan qlora untuk latihan yang efisien. transformers
transformers
, datasets
, accelerate
, peft
, trl
, bitsandbytes
, dan wandb
. torch_dtype
dan attn_implementation
berdasarkan keupayaan GPU anda. BitsAndBytesConfig
untuk kuantisasi 4-bit untuk meminimumkan penggunaan memori. bitext/Bitext-customer-support-llm-chatbot-training-dataset
. apply_chat_template
tokenizer. LoraConfig
untuk menyempurnakan modul spesifik sahaja. TrainingArguments
dengan hiperparameter yang sesuai untuk latihan yang cekap pada kaggle. SFTTrainer
, menyediakan model, dataset, konfigurasi lora, hujah latihan, dan tokenizer. Melatih model menggunakan trainer.train()
. Pantau latihan dan kehilangan pengesahan menggunakan WANDB.
menguji model yang disesuaikan dengan contoh sampel dari dataset.
Simpan model yang disesuaikan secara tempatan dan tolaknya ke hab muka yang memeluk.
Bahagian ini butiran menggabungkan penyesuai LORA yang disesuaikan dengan model asas dan mengeksportnya ke hab muka yang memeluk. Ia melibatkan memuatkan model asas dan penyesuai LORA, menggabungkannya menggunakan PeftModel.from_pretrained
dan model.merge_and_unload()
, dan kemudian menjimatkan dan menolak model yang digabungkan ke hab.
Akhirnya, tutorial menerangkan menukarkan model yang digabungkan ke format GGUF menggunakan alat repo saya GGUF untuk memeluk muka dan menggunakannya secara tempatan menggunakan aplikasi Jan. Ini melibatkan memuat turun fail GGUF, mengimportnya ke Jan, dan menubuhkan token sistem dan berhenti untuk prestasi optimum.
Fine-penalaan LLMS yang lebih kecil menawarkan pendekatan kos efektif dan cekap untuk menyesuaikan model untuk tugas tertentu. Tutorial ini menyediakan panduan praktikal untuk memanfaatkan keupayaan Llama 3.2, dari akses dan penalaan halus ke penggunaan tempatan, memperkasakan pengguna untuk membina dan menggunakan penyelesaian AI tersuai. Ingatlah untuk berunding dengan buku nota Kaggle yang disertakan untuk contoh kod terperinci.
Atas ialah kandungan terperinci Penalaan Llama 3.2 dan menggunakannya secara tempatan: Panduan Langkah demi Langkah. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!