ラマの力のロックを解除する3.2:微調整とローカル展開の包括的なガイド
大規模な言語モデル(LLM)の風景は急速に進化しており、より小さく、より効率的なモデルに焦点を当てています。 Llama 3.2は、その軽量およびビジョンモデルのバリエーションを備えており、この傾向を例示しています。このチュートリアルでは、LLAMA 3.2の機能、特に3Bの軽量モデルを活用する方法を詳しく説明します。これは、カスタマーサポートデータセットとその後のローカル展開を微調整して、JANアプリケーションを使用して展開します。
飛び込む前に、初心者は、LLMSと生成AIの基本を把握するためにAIの基本コースを完了することを強くお勧めします。
著者による画像
軽量ファミリには、1Bおよび3Bパラメーターバリアントが含まれています。 それらのコンパクトサイズにより、オンデバイス処理が可能になり、データプライバシーと高速で費用対効果の高いテキスト生成が確保されます。 これらのモデルは、効率とパフォーマンスのために剪定と知識の蒸留を利用しています。 3Bモデルは、Gemma 2やPhi 3.5-Miniなどの競合他社を、指示に続いて要約するなどのタスクで登録します。
ソース:Llama 3.2:オープンでカスタマイズ可能なモデルを使用したエッジAIとビジョンに革命をもたらします
ビジョンモデル
ビジョンモデル(11bおよび90bパラメーター)は、ドキュメントやチャートを解釈できる画像推論用に設計されています。 それらのマルチモーダル機能は、事前に訓練された画像エンコーダーを言語モデルと統合することに起因しています。 彼らは視覚的理解のタスクでクロード3ハイクとGPT-4Oミニを上回ります。
ソース:Llama 3.2:オープンでカスタマイズ可能なモデルを使用したエッジAIとビジョンに革命をもたらします
Llama 3.2のアーキテクチャ、ベンチマーク、セキュリティ機能(Llama Guard 3)に関するより深い洞察については、公式のLlama 3.2ガイドを参照してください。 kaggleでllama 3.2へのアクセス
経由でアクセスする方法は次のとおりです
transformers
の設定、テキスト生成パイプラインの作成、およびカスタムプロンプトの実行の実行を実行します。 詳細なコードの例は、付随するKaggleノートブックに記載されています。 GPUの要件は大幅に高くなりますが、Llama 3.2ビジョンモデルへのアクセスにも同様の手順が適用されます。
accelerate
微調整llama 3.2 3b instruce%pip install -U transformers accelerate
このセクションでは、効率的なトレーニングのためにtransformers
、datasets
、accelerate
、peft
、trl
。
bitsandbytes
APIキーを使用して顔とwandbを抱き締めるためにログインします。wandb
torch_dtype
attn_implementation
データセットの読み込みと処理BitsAndBytesConfig
bitext/Bitext-customer-support-llm-chatbot-training-dataset
apply_chat_template
Kaggleでの効率的なトレーニングのために適切なハイパーパラメーターを使用してLoraConfig
モデル推論TrainingArguments
モデルの保存SFTTrainer
微調整されたモデルのマージとエクスポート最後に、チュートリアルでは、マージされたモデルをGGUF形式に変換することを説明しています。GGUFマイレポツールを使用して顔を抱きしめ、JANアプリケーションを使用してローカルに展開します。 これには、GGUFファイルをダウンロードし、JANにインポートし、システムプロンプトをセットアップして最適なパフォーマンスのためにトークンを停止します。
微調整小型LLMSは、特定のタスクのモデルをカスタマイズするための費用対効果の高い効率的なアプローチを提供します。 このチュートリアルでは、アクセスや微調整からローカル展開まで、Llama 3.2の機能を活用するための実用的なガイドを提供し、ユーザーがカスタムAIソリューションを構築および展開できるようにします。 詳細なコードの例については、付随するKaggleノートブックに相談してください。
以上がLlama 3.2を微調整してローカルに使用する:ステップバイステップガイドの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。