目次
apiキーは、Kaggle Secrets:
モデルには4ビット精度がロードされています:
アダプターの追加
HyperParameters
SFTトレーニング
モデルの保存とプッシュ
モデル評価
チュートリアルは、Mistral 7Bの機能の要約と、モデルへのアクセス、微調整、展開に伴う手順の要約で終了します。 リソースとFAQも含まれています。 重点は、ユーザーがこの強力な言語モデルを使用するための実用的なガイドを提供することです。
ホームページ テクノロジー周辺機器 AI Mistral 7Bチュートリアル:使用および微調整ミストラル7bへのステップバイステップガイド

Mistral 7Bチュートリアル:使用および微調整ミストラル7bへのステップバイステップガイド

Mar 09, 2025 am 10:37 AM

このチュートリアルは、自然言語処理タスクのミストラル7B言語モデルを使用および微調整するための包括的なガイドを提供します。 モデルアクセスのためにKaggleを活用し、推論を実行し、量子化技術を適用し、モデルを微調整し、アダプターをマージし、ハグするフェイスハブに展開することを学びます。

Mistral 7b

へのアクセス

Mistral 7Bは、顔、Vertex AI、Replicate、Sagemaker Jumpstart、Basetenなど、さまざまなプラットフォームからアクセスできます。 このチュートリアルは、合理化されたアクセスのためにKaggleの「モデル」機能を利用し、手動のダウンロードの必要性を排除することに焦点を当てています。 このセクションでは、Kaggleからモデルの読み込みと推論を実行することを示しています。 エラーを防ぐためには、必須のライブラリの更新が重要です:

bitsandBytesを使用したNF4構成による4ビットの量子化により、負荷速度が向上し、メモリの使用が削減されます。

<code>!pip install -q -U transformers
!pip install -q -U accelerate
!pip install -q -U bitsandbytes</code>
ログイン後にコピー
ログイン後にコピー
Mistral 7BモデルをKaggleノートブックに追加するには、これらの手順が含まれます。

右パネルの「モデルの追加」をクリックします。
<code>from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, pipeline
import torch

bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_quant_type="nf4",
    bnb_4bit_use_double_quant=True,
)</code>
ログイン後にコピー
ログイン後にコピー

「Mistral 7b」を検索し、「7b-v0.1-hf」を選択し、追加します

ディレクトリパスに注意してください。
  1. モデルとトークネイザーの荷重では、
  2. ライブラリを使用します:

Mistral 7B Tutorial: A Step-by-Step Guide to Using and Fine-Tuning Mistral 7B 関数は、

関数:

を使用して簡素化されます transformers

モデルのプロンプトと設定パラメーター:
<code>model_name = "/kaggle/input/mistral/pytorch/7b-v0.1-hf/1"

tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
        model_name,
        load_in_4bit=True,
        quantization_config=bnb_config,
        torch_dtype=torch.bfloat16,
        device_map="auto",
        trust_remote_code=True,
    )</code>
ログイン後にコピー

pipelineMistral 7b微調整

このセクションでは、PEFT、4ビット量子化、Qloraなどのテクニックを利用して、
<code>pipe = pipeline(
    "text-generation", 
    model=model, 
    tokenizer = tokenizer, 
    torch_dtype=torch.bfloat16, 
    device_map="auto"
)</code>
ログイン後にコピー
データセットで微調整されたMistral 7Bをガイドします。 チュートリアルでは、さらなるコンテキストについては、微調整されたLlama 2に関するガイドも参照しています。

セットアップ

<code>prompt = "As a data scientist, can you explain the concept of regularization in machine learning?"

sequences = pipe(
    prompt,
    do_sample=True,
    max_new_tokens=100, 
    temperature=0.7, 
    top_k=50, 
    top_p=0.95,
    num_return_sequences=1,
)
print(sequences[0]['generated_text'])</code>
ログイン後にコピー
必要なライブラリがインストールされています:

関連するモジュールがインポートされます:guanaco-llama2-1k

apiキーは、Kaggle Secrets:

を使用して安全に管理されています

顔と重量とバイアスの抱きしめが構成されています:
<code>%%capture
%pip install -U bitsandbytes
%pip install -U transformers
%pip install -U peft
%pip install -U accelerate
%pip install -U trl</code>
ログイン後にコピー

ベースモデル、データセット、および新しいモデル名が定義されています
<code>from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig,HfArgumentParser,TrainingArguments,pipeline, logging
from peft import LoraConfig, PeftModel, prepare_model_for_kbit_training, get_peft_model
import os,torch, wandb
from datasets import load_dataset
from trl import SFTTrainer</code>
ログイン後にコピー

データの読み込み

<code>from kaggle_secrets import UserSecretsClient
user_secrets = UserSecretsClient()
secret_hf = user_secrets.get_secret("HUGGINGFACE_TOKEN")
secret_wandb = user_secrets.get_secret("wandb")</code>
ログイン後にコピー
データセットが読み込まれ、サンプルが表示されます:

<code>!huggingface-cli login --token $secret_hf
wandb.login(key = secret_wandb)
run = wandb.init(
    project='Fine tuning mistral 7B', 
    job_type="training", 
    anonymous="allow"
)</code>
ログイン後にコピー

<code>base_model = "/kaggle/input/mistral/pytorch/7b-v0.1-hf/1"
dataset_name = "mlabonne/guanaco-llama2-1k"
new_model = "mistral_7b_guanaco"</code>
ログイン後にコピー
Mistral 7bのロード

モデルには4ビット精度がロードされています:

トークン剤のロード

<code>dataset = load_dataset(dataset_name, split="train")
dataset["text"][100]</code>
ログイン後にコピー

トークン剤がロードされ、構成されています:Mistral 7B Tutorial: A Step-by-Step Guide to Using and Fine-Tuning Mistral 7B

アダプターの追加

効率的な微調整のためにロラアダプターが追加されています:

<code>bnb_config = BitsAndBytesConfig(  
    load_in_4bit= True,
    bnb_4bit_quant_type= "nf4",
    bnb_4bit_compute_dtype= torch.bfloat16,
    bnb_4bit_use_double_quant= False,
)
model = AutoModelForCausalLM.from_pretrained(
        base_model,
        load_in_4bit=True,
        quantization_config=bnb_config,
        torch_dtype=torch.bfloat16,
        device_map="auto",
        trust_remote_code=True,
)
model.config.use_cache = False
model.config.pretraining_tp = 1
model.gradient_checkpointing_enable()</code>
ログイン後にコピー

HyperParameters

トレーニングの引数が定義されています:

<code>tokenizer = AutoTokenizer.from_pretrained(base_model, trust_remote_code=True)
tokenizer.padding_side = 'right'
tokenizer.pad_token = tokenizer.eos_token
tokenizer.add_eos_token = True
tokenizer.add_bos_token, tokenizer.add_eos_token</code>
ログイン後にコピー

SFTトレーニング

SFTTRAINERが設定され、トレーニングが開始されます:

<code>!pip install -q -U transformers
!pip install -q -U accelerate
!pip install -q -U bitsandbytes</code>
ログイン後にコピー
ログイン後にコピー

Mistral 7B Tutorial: A Step-by-Step Guide to Using and Fine-Tuning Mistral 7B

モデルの保存とプッシュ

微調整されたモデルが保存され、抱きしめられる顔のハブに押し込まれます:

<code>from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, pipeline
import torch

bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_quant_type="nf4",
    bnb_4bit_use_double_quant=True,
)</code>
ログイン後にコピー
ログイン後にコピー

モデル評価

モデルのパフォーマンスは、重みとバイアスを使用して評価されます。推論の例が提供されています。

アダプターのマージ

アダプターはベースモデルとマージされ、結果のモデルは顔を抱き締めるようにプッシュされます。

微調整されたモデルへのアクセス

マージされたモデルは顔の抱きしめからロードされ、推論が実証されています。

結論

チュートリアルは、Mistral 7Bの機能の要約と、モデルへのアクセス、微調整、展開に伴う手順の要約で終了します。 リソースとFAQも含まれています。 重点は、ユーザーがこの強力な言語モデルを使用するための実用的なガイドを提供することです。

以上がMistral 7Bチュートリアル:使用および微調整ミストラル7bへのステップバイステップガイドの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

クリエイティブプロジェクトのための最高のAIアートジェネレーター(無料&amp;有料) クリエイティブプロジェクトのための最高のAIアートジェネレーター(無料&amp;有料) Apr 02, 2025 pm 06:10 PM

この記事では、トップAIアートジェネレーターをレビューし、その機能、創造的なプロジェクトへの適合性、価値について説明します。 Midjourneyを専門家にとって最高の価値として強調し、高品質でカスタマイズ可能なアートにDall-E 2を推奨しています。

Meta Llama 3.2を始めましょう - 分析Vidhya Meta Llama 3.2を始めましょう - 分析Vidhya Apr 11, 2025 pm 12:04 PM

メタのラマ3.2:マルチモーダルとモバイルAIの前進 メタは最近、ラマ3.2を発表しました。これは、モバイルデバイス向けに最適化された強力なビジョン機能と軽量テキストモデルを特徴とするAIの大幅な進歩です。 成功に基づいてo

ベストAIチャットボットが比較されました(chatgpt、gemini、claude&amp; more) ベストAIチャットボットが比較されました(chatgpt、gemini、claude&amp; more) Apr 02, 2025 pm 06:09 PM

この記事では、ChatGpt、Gemini、ClaudeなどのトップAIチャットボットを比較し、自然言語の処理と信頼性における独自の機能、カスタマイズオプション、パフォーマンスに焦点を当てています。

トップAIライティングアシスタントは、コンテンツの作成を後押しします トップAIライティングアシスタントは、コンテンツの作成を後押しします Apr 02, 2025 pm 06:11 PM

この記事では、Grammarly、Jasper、Copy.ai、Writesonic、RytrなどのトップAIライティングアシスタントについて説明し、コンテンツ作成のためのユニークな機能に焦点を当てています。 JasperがSEOの最適化に優れているのに対し、AIツールはトーンの維持に役立つと主張します

10生成AIコーディング拡張機能とコードのコードを探る必要があります 10生成AIコーディング拡張機能とコードのコードを探る必要があります Apr 13, 2025 am 01:14 AM

ねえ、忍者をコーディング!その日はどのようなコーディング関連のタスクを計画していますか?このブログにさらに飛び込む前に、コーディング関連のすべての問題について考えてほしいです。 終わり? - &#8217を見てみましょう

AVバイト:Meta&#039; s llama 3.2、GoogleのGemini 1.5など AVバイト:Meta&#039; s llama 3.2、GoogleのGemini 1.5など Apr 11, 2025 pm 12:01 PM

今週のAIの風景:進歩、倫理的考慮、規制の議論の旋風。 Openai、Google、Meta、Microsoftのような主要なプレーヤーは、画期的な新しいモデルからLEの重要な変化まで、アップデートの急流を解き放ちました

従業員へのAI戦略の販売:Shopify CEOのマニフェスト 従業員へのAI戦略の販売:Shopify CEOのマニフェスト Apr 10, 2025 am 11:19 AM

Shopify CEOのTobiLütkeの最近のメモは、AIの能力がすべての従業員にとって基本的な期待であると大胆に宣言し、会社内の重大な文化的変化を示しています。 これはつかの間の傾向ではありません。これは、pに統合された新しい運用パラダイムです

最高のAI音声ジェネレーターの選択:レビューされたトップオプション 最高のAI音声ジェネレーターの選択:レビューされたトップオプション Apr 02, 2025 pm 06:12 PM

この記事では、Google Cloud、Amazon Polly、Microsoft Azure、IBM Watson、DecriptなどのトップAI音声ジェネレーターをレビューし、機能、音声品質、さまざまなニーズへの適合性に焦点を当てています。

See all articles