ホームページ > テクノロジー周辺機器 > AI > Llama 3.2を微調整してローカルに使用する:ステップバイステップガイド

Llama 3.2を微調整してローカルに使用する:ステップバイステップガイド

William Shakespeare
リリース: 2025-03-03 10:30:12
オリジナル
817 人が閲覧しました

ラマの力のロックを解除する3.2:微調整とローカル展開の包括的なガイド

大規模な言語モデル(LLM)の風景は急速に進化しており、より小さく、より効率的なモデルに焦点を当てています。 Llama 3.2は、その軽量およびビジョンモデルのバリエーションを備えており、この傾向を例示しています。このチュートリアルでは、LLAMA 3.2の機能、特に3Bの軽量モデルを活用する方法を詳しく説明します。これは、カスタマーサポートデータセットとその後のローカル展開を微調整して、JANアプリケーションを使用して展開します。

飛び込む前に、初心者は、LLMSと生成AIの基本を把握するためにAIの基本コースを完了することを強くお勧めします。

Fine-tuning Llama 3.2 and Using It Locally: A Step-by-Step Guide 著者による画像

Llama 3.2モデルの探索

llama 3.2には、軽量とビジョンの2つのモデルファミリを提供しています。軽量モデルは、リソースに制約のある環境に最適な多言語テキストの生成とツールの使用に優れています。一方、ビジョンモデルは、画像の推論とマルチモーダルタスクに特化しています。

軽量モデル

軽量ファミリには、1Bおよび3Bパラメーターバリアントが含まれています。 それらのコンパクトサイズにより、オンデバイス処理が可能になり、データプライバシーと高速で費用対効果の高いテキスト生成が確保されます。 これらのモデルは、効率とパフォーマンスのために剪定と知識の蒸留を利用しています。 3Bモデルは、Gemma 2やPhi 3.5-Miniなどの競合他社を、指示に続いて要約するなどのタスクで登録します。

ソース:Llama 3.2:オープンでカスタマイズ可能なモデルを使用したエッジAIとビジョンに革命をもたらします

Fine-tuning Llama 3.2 and Using It Locally: A Step-by-Step Guide ビジョンモデル

ビジョンモデル(11bおよび90bパラメーター)は、ドキュメントやチャートを解釈できる画像推論用に設計されています。 それらのマルチモーダル機能は、事前に訓練された画像エンコーダーを言語モデルと統合することに起因しています。 彼らは視覚的理解のタスクでクロード3ハイクとGPT-4Oミニを上回ります。

ソース:Llama 3.2:オープンでカスタマイズ可能なモデルを使用したエッジAIとビジョンに革命をもたらします

Llama 3.2のアーキテクチャ、ベンチマーク、セキュリティ機能(Llama Guard 3)に関するより深い洞察については、公式のLlama 3.2ガイドを参照してください。

kaggleでllama 3.2へのアクセスFine-tuning Llama 3.2 and Using It Locally: A Step-by-Step Guide

llama 3.2はオープンソースですが、アクセスには条件を受け入れる必要があります。 kaggle:

経由でアクセスする方法は次のとおりです

  1. llama.comにアクセスして、アクセスフォームに記入して、軽量モデルとビジョンモデルの両方を選択してください。
  2. メタに移動します| KaggleのLlama 3.2モデルページとフォームを送信します。
  3. 条件を受け入れます。
  4. ノートブック作成オプションをお待ちしています。 [トランスフォーマー]タブを選択し、モデルバリアントを選択し、新しいノートブックを作成します。
  5. Acceleratorを「GPU T4 X2」に設定します
  6. 後続の手順では、
  7. ライブラリを使用してトークン剤とモデルのロード、ローカルモデルディレクトリの指定、transformersの設定、テキスト生成パイプラインの作成、およびカスタムプロンプトの実行の実行を実行します。 詳細なコードの例は、付随するKaggleノートブックに記載されています。 GPUの要件は大幅に高くなりますが、Llama 3.2ビジョンモデルへのアクセスにも同様の手順が適用されます。 accelerate微調整llama 3.2 3b instruce%pip install -U transformers accelerate このセクションでは、効率的なトレーニングのために
  8. ライブラリとQloraを使用して、カスタマーサポートデータセットのLlama 3.2 3b指示モデルを微調整することをガイドします。

    セットアップ

    1. 新しいKaggleノートブックを起動し、顔と重量とバイアス(WANDB)アクセスを抱き締めるための環境変数を設定します。
    2. 必要なパッケージをインストール:
    3. transformersdatasetsacceleratepefttrlbitsandbytesAPIキーを使用して顔とwandbを抱き締めるためにログインします。wandb
    4. ベースモデル、新しいモデル名、およびデータセット名の変数を定義します。
    5. モデルとトークンザーのロード
    6. GPU機能に基づいて、適切な
    および

    を決定します。 4ビットの量子化に

    を使用してモデルをロードして、メモリの使用量を最小限に抑えます。
      トークン剤をロードします。
    1. torch_dtype attn_implementationデータセットの読み込みと処理
    2. BitsAndBytesConfig
    3. をロードします
    4. データのサブセットをシャッフルして選択します(たとえば、より高速なトレーニングのために1000のサンプル)。
    システム命令、ユーザークエリ、およびアシスタント応答を、トークンザーの

    メソッドを使用してチャット形式に組み合わせて「テキスト」列を作成します。

      モデルのセットアップ
    1. bitext/Bitext-customer-support-llm-chatbot-training-dataset
    2. ヘルパー関数を使用してすべての線形モジュール名を識別します
    3. 特定のモジュールのみを微調整するために
    4. を使用してLORAを構成します。
    5. apply_chat_templateKaggleでの効率的なトレーニングのために適切なハイパーパラメーターを使用して
    6. をセットアップします。
    モデル、データセット、LORA構成、トレーニング引数、およびトークンザーを提供して、

    インスタンスを作成します。

      モデルトレーニング
    1. を使用してモデルをトレーニングします。 wandbを使用したトレーニングと検証の損失を監視します LoraConfigモデル推論
    2. データセットからのサンプルプロンプトで微調整されたモデルをテストします。 TrainingArgumentsモデルの保存
    3. 微調整されたモデルをローカルに保存し、抱きしめる顔のハブに押し込みます。 SFTTrainer微調整されたモデルのマージとエクスポート
    4. このセクションでは、微調整されたLoraアダプターとベースモデルのマージを詳細に示し、ハグのフェイスハブにエクスポートします。 ベースモデルとLORAアダプターをロードし、

    を使用してマージし、マージされたモデルをハブに保存およびプッシュすることを含みます。 GGUFおよびローカルデプロイメントへの変換

    最後に、チュートリアルでは、マージされたモデルをGGUF形式に変換することを説明しています。GGUFマイレポツールを使用して顔を抱きしめ、JANアプリケーションを使用してローカルに展開します。 これには、GGUFファイルをダウンロードし、JANにインポートし、システムプロンプトをセットアップして最適なパフォーマンスのためにトークンを停止します。

    結論

    微調整小型LLMSは、特定のタスクのモデルをカスタマイズするための費用対効果の高い効率的なアプローチを提供します。 このチュートリアルでは、アクセスや微調整からローカル展開まで、Llama 3.2の機能を活用するための実用的なガイドを提供し、ユーザーがカスタムAIソリューションを構築および展開できるようにします。 詳細なコードの例については、付随するKaggleノートブックに相談してください。

以上がLlama 3.2を微調整してローカルに使用する:ステップバイステップガイドの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
著者別の最新記事
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート