Mistral 7Bチュートリアル:使用および微調整ミストラル7bへのステップバイステップガイド
このチュートリアルは、自然言語処理タスクのミストラル7B言語モデルを使用および微調整するための包括的なガイドを提供します。 モデルアクセスのためにKaggleを活用し、推論を実行し、量子化技術を適用し、モデルを微調整し、アダプターをマージし、ハグするフェイスハブに展開することを学びます。
Mistral 7bへのアクセス
Mistral 7Bは、顔、Vertex AI、Replicate、Sagemaker Jumpstart、Basetenなど、さまざまなプラットフォームからアクセスできます。 このチュートリアルは、合理化されたアクセスのためにKaggleの「モデル」機能を利用し、手動のダウンロードの必要性を排除することに焦点を当てています。 このセクションでは、Kaggleからモデルの読み込みと推論を実行することを示しています。 エラーを防ぐためには、必須のライブラリの更新が重要です:
bitsandBytesを使用したNF4構成による4ビットの量子化により、負荷速度が向上し、メモリの使用が削減されます。
<code>!pip install -q -U transformers !pip install -q -U accelerate !pip install -q -U bitsandbytes</code>
右パネルの「モデルの追加」をクリックします。
<code>from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, pipeline import torch bnb_config = BitsAndBytesConfig( load_in_4bit=True, bnb_4bit_quant_type="nf4", bnb_4bit_use_double_quant=True, )</code>
「Mistral 7b」を検索し、「7b-v0.1-hf」を選択し、追加します
ディレクトリパスに注意してください。- モデルとトークネイザーの荷重では、 ライブラリを使用します:
関数は、
を使用して簡素化されます
transformers
<code>model_name = "/kaggle/input/mistral/pytorch/7b-v0.1-hf/1" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained( model_name, load_in_4bit=True, quantization_config=bnb_config, torch_dtype=torch.bfloat16, device_map="auto", trust_remote_code=True, )</code>
pipeline
Mistral 7b微調整
<code>pipe = pipeline( "text-generation", model=model, tokenizer = tokenizer, torch_dtype=torch.bfloat16, device_map="auto" )</code>
セットアップ
<code>prompt = "As a data scientist, can you explain the concept of regularization in machine learning?" sequences = pipe( prompt, do_sample=True, max_new_tokens=100, temperature=0.7, top_k=50, top_p=0.95, num_return_sequences=1, ) print(sequences[0]['generated_text'])</code>
関連するモジュールがインポートされます:guanaco-llama2-1k
apiキーは、Kaggle Secrets:
を使用して安全に管理されています顔と重量とバイアスの抱きしめが構成されています:
<code>%%capture %pip install -U bitsandbytes %pip install -U transformers %pip install -U peft %pip install -U accelerate %pip install -U trl</code>
ベースモデル、データセット、および新しいモデル名が定義されています
<code>from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig,HfArgumentParser,TrainingArguments,pipeline, logging from peft import LoraConfig, PeftModel, prepare_model_for_kbit_training, get_peft_model import os,torch, wandb from datasets import load_dataset from trl import SFTTrainer</code>
データの読み込み
<code>from kaggle_secrets import UserSecretsClient user_secrets = UserSecretsClient() secret_hf = user_secrets.get_secret("HUGGINGFACE_TOKEN") secret_wandb = user_secrets.get_secret("wandb")</code>
<code>!huggingface-cli login --token $secret_hf wandb.login(key = secret_wandb) run = wandb.init( project='Fine tuning mistral 7B', job_type="training", anonymous="allow" )</code>
<code>base_model = "/kaggle/input/mistral/pytorch/7b-v0.1-hf/1" dataset_name = "mlabonne/guanaco-llama2-1k" new_model = "mistral_7b_guanaco"</code>
モデルには4ビット精度がロードされています:
トークン剤のロード
<code>dataset = load_dataset(dataset_name, split="train") dataset["text"][100]</code>
トークン剤がロードされ、構成されています:
アダプターの追加
効率的な微調整のためにロラアダプターが追加されています:
<code>bnb_config = BitsAndBytesConfig( load_in_4bit= True, bnb_4bit_quant_type= "nf4", bnb_4bit_compute_dtype= torch.bfloat16, bnb_4bit_use_double_quant= False, ) model = AutoModelForCausalLM.from_pretrained( base_model, load_in_4bit=True, quantization_config=bnb_config, torch_dtype=torch.bfloat16, device_map="auto", trust_remote_code=True, ) model.config.use_cache = False model.config.pretraining_tp = 1 model.gradient_checkpointing_enable()</code>
HyperParameters
トレーニングの引数が定義されています:
<code>tokenizer = AutoTokenizer.from_pretrained(base_model, trust_remote_code=True) tokenizer.padding_side = 'right' tokenizer.pad_token = tokenizer.eos_token tokenizer.add_eos_token = True tokenizer.add_bos_token, tokenizer.add_eos_token</code>
SFTトレーニング
SFTTRAINERが設定され、トレーニングが開始されます:
<code>!pip install -q -U transformers !pip install -q -U accelerate !pip install -q -U bitsandbytes</code>
モデルの保存とプッシュ
微調整されたモデルが保存され、抱きしめられる顔のハブに押し込まれます:
<code>from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, pipeline import torch bnb_config = BitsAndBytesConfig( load_in_4bit=True, bnb_4bit_quant_type="nf4", bnb_4bit_use_double_quant=True, )</code>
モデル評価
モデルのパフォーマンスは、重みとバイアスを使用して評価されます。推論の例が提供されています。
アダプターのマージアダプターはベースモデルとマージされ、結果のモデルは顔を抱き締めるようにプッシュされます。
微調整されたモデルへのアクセスマージされたモデルは顔の抱きしめからロードされ、推論が実証されています。
結論
チュートリアルは、Mistral 7Bの機能の要約と、モデルへのアクセス、微調整、展開に伴う手順の要約で終了します。 リソースとFAQも含まれています。 重点は、ユーザーがこの強力な言語モデルを使用するための実用的なガイドを提供することです。
以上がMistral 7Bチュートリアル:使用および微調整ミストラル7bへのステップバイステップガイドの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

Video Face Swap
完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック











この記事では、トップAIアートジェネレーターをレビューし、その機能、創造的なプロジェクトへの適合性、価値について説明します。 Midjourneyを専門家にとって最高の価値として強調し、高品質でカスタマイズ可能なアートにDall-E 2を推奨しています。

メタのラマ3.2:マルチモーダルとモバイルAIの前進 メタは最近、ラマ3.2を発表しました。これは、モバイルデバイス向けに最適化された強力なビジョン機能と軽量テキストモデルを特徴とするAIの大幅な進歩です。 成功に基づいてo

この記事では、ChatGpt、Gemini、ClaudeなどのトップAIチャットボットを比較し、自然言語の処理と信頼性における独自の機能、カスタマイズオプション、パフォーマンスに焦点を当てています。

この記事では、Grammarly、Jasper、Copy.ai、Writesonic、RytrなどのトップAIライティングアシスタントについて説明し、コンテンツ作成のためのユニークな機能に焦点を当てています。 JasperがSEOの最適化に優れているのに対し、AIツールはトーンの維持に役立つと主張します

ねえ、忍者をコーディング!その日はどのようなコーディング関連のタスクを計画していますか?このブログにさらに飛び込む前に、コーディング関連のすべての問題について考えてほしいです。 終わり? - &#8217を見てみましょう

今週のAIの風景:進歩、倫理的考慮、規制の議論の旋風。 Openai、Google、Meta、Microsoftのような主要なプレーヤーは、画期的な新しいモデルからLEの重要な変化まで、アップデートの急流を解き放ちました

Shopify CEOのTobiLütkeの最近のメモは、AIの能力がすべての従業員にとって基本的な期待であると大胆に宣言し、会社内の重大な文化的変化を示しています。 これはつかの間の傾向ではありません。これは、pに統合された新しい運用パラダイムです

この記事では、Google Cloud、Amazon Polly、Microsoft Azure、IBM Watson、DecriptなどのトップAI音声ジェネレーターをレビューし、機能、音声品質、さまざまなニーズへの適合性に焦点を当てています。
