大規模な言語モデル(LLMS)の微調整は、特定のタスクでのパフォーマンスを最適化するために不可欠です。 OpenAIは、GPTモデルを微調整するための堅牢なフレームワークを提供し、組織がドメイン固有の要件に基づいてAIの動作を調整できるようにします。このプロセスは、LLMのカスタマイズにおいて重要な役割を果たし、モデルがより正確で関連性のあるコンテキストを意識した応答を生成できるようにします。また、コード生成とデバッグのためのソフトウェア開発、および契約レビューと判例法の分析のための法的支援にも使用できます。このガイドでは、OpenAIのプラットフォームを使用して微調整プロセスを進め、現実世界のアプリケーションでの微調整モデルのパフォーマンスを評価します。
目次
Openaiプラットフォームでモデルをトレーニングするのにどれくらいの費用がかかりますか。
Model | Pricing | Pricing with Batch API | Training Pricing |
gpt-4o-2024-08-06 | .750 / 1M input tokens.000 / 1M output tokens | .875 / 1M input tokens.500 / 1M output tokens | .000 / 1M training tokens |
gpt-4o-mini-2024-07-18 | .300 / 1M input tokens.200 / 1M output tokens | .150 / 1M input tokens.600 / 1M output tokens | .000 / 1M training tokens |
gpt-3.5-turbo | .000 / 1M training tokens.000 / 1M output tokens | .500 / 1M input tokens.000 / 1M output tokens | .000 / 1M training tokens |
OpenAIプラットフォームでモデルを微調整します
実際の顧客クエリとインタラクションに関するモデルを微調整することにより、ビジネスは応答の品質を向上させ、誤解を減らし、全体的なユーザーの満足度を向上させることができます。
また読む:初心者向けガイドの大規模な言語モデル(LLMS)OpenAIプラットフォームを使用してモデルをトレーニングする方法を見てみましょう。これを4つのステップで行います:
データセットの識別
dfinetuningデータのダウンロード
微調整プロセスのカスタマーサービスデータは、フェイスデータセットを抱き締めることから取得されます。ここからアクセスできます。
次のステップでは、データがどのように見えるかを確認し、必要な形式でない場合は必要な調整を行います。
ステップ3:データのインポートとプリプロシング
次に、データとプリプロセスを必要な形式にインポートします。
{"messages": [{"role": "system", "content": "This is an AI assistant for answering FAQs."}, {"role": "user", "content": "What are your customer support hours?"}, {"role": "assistant", "content": "Our customer support is available 1 24/7. How else may I assist you?"}]}
1。次に、Jupyterノートブックにデータをロードし、必要な形式に一致するように変更します。
上記のように、データフレームを繰り返してJSONLファイルを作成できます。
ここで、JSONとはわずかに異なるJSONLファイル形式でデータを保存しています。
json データを単一のファイルに階層構造(オブジェクトと配列)として保存し、ネストの構造化されたデータに適しています。以下は、JSONファイル形式の例です
{"messages": [{"role": "system", "content": "This is an AI assistant for answering FAQs."}, {"role": "user", "content": "What are your customer support hours?"}, {"role": "assistant", "content": "Our customer support is available 1 24/7. How else may I assist you?"}]}
jsonl は、それぞれが別のライン上に、アレイまたはネストされた構造がない複数のJSONオブジェクトで構成されています。この形式は、大規模なデータセットのストリーミング、処理、およびデータラインごとの処理により効率的です。Belowは、jsonlファイル形式の例です。 ステップ4:Openaiプラットフォームでの微調整
import pandas as pd splits = {'train': 'data/train-00000-of-00001.parquet', 'test': 'data/test-00000-of-00001.parquet'} df_train = pd.read_parquet("hf://datasets/charles828/vertex-ai-customer-support-training-dataset/" + splits["train"])
2。 「作成」をクリックすると、小さなウィンドウがポップアップ表示されます。
上記の画像のハイパーパラメーターの内訳は次のとおりです。
バッチサイズ:これは、モデルの重みを更新する前に、1つのパス(またはステップ)で使用されるトレーニング例(データポイント)の数(データポイント)の数を指します。すべてのデータを一度に処理する代わりに、モデルは一度に小さなチャンク(バッチ)を処理します。バッチサイズが小さくなるには時間がかかりますが、より良いモデルを作成する場合があります。ここで正しいバランスを見つける必要があります。大きなものはより安定しているかもしれませんが、はるかに速いかもしれません。
これは、更新されるたびにモデルの重みがどの程度変化するかを調整する要因です。高く設定されている場合、モデルはより速く学習する可能性がありますが、最良のソリューションをオーバーシュートする可能性があります。それが低い場合、モデルはよりゆっくりと学習しますが、より正確になる可能性があります。 エポックの数:
「エポック」は、トレーニングデータセット全体を完全に通過する1つの完全なパスです。エポックの数は、モデルがデータセット全体から何回学習するかを示します。通常、より多くのエポックにより、モデルの学習が改善されますが、多くの人が過剰に適合する可能性があります。3。 「監視」として、選択した「ベースモデル」としてメソッドを選択します。 GPT-4Oを選択しました。
4。トレーニングデータにJSONファイルをアップロードします 5。モデルを微調整するタスクに関連する「サフィックス」を追加します。
6。ハイパーパラメータを選択するか、デフォルト値に任せます。7。 「作成」をクリックすると、微調整が開始されます
8。微調整が完了すると、次のように表示されます。
9。これで、右下隅の「遊び場」をクリックすることにより、微調整されたモデルと既存のモデルを比較できます。
重要なメモ:高コストを考えると、スケールアップする前に初期テストのために小さなデータセットから始めることをお勧めします。データセットが適切に構造化され、関連性があることを確認することで、パフォーマンスとコスト効率の両方を最適化するのに役立ちます。
gpt-4o vs Finetuned GPT-4Oパフォーマンスチェックモデルを微調整したので、そのパフォーマンスをベースGPT-4Oと比較し、両方のモデルの応答を分析して、精度、明確さ、理解、および関連性の改善があるかどうかを確認します。これは、微調整されたモデルが私たちの特定のニーズを満たし、意図したタスクでより良いパフォーマンスを発揮するかどうかを判断するのに役立ちます。簡潔にするために、3つのプロンプトのサンプル結果が、細かいトイーンと標準のGPT-4Oモデルの両方を形成します。
Finetuned GPT-4Oモデルによる 応答:
GPT-4Oによる
応答:
比較分析
微調整されたモデルは、標準のGPT-4Oと比較して、より詳細でユーザー中心の応答を提供します。 GPT-4oは機能的なステップバイステップガイドを提供しますが、微調整されたモデルは、アドレスの追加と編集を明示的に区別することにより、明確さを強化します。ユーザーにとってより魅力的で安心し、積極的な支援を提供します。これは、カスタマーサービスのベストプラクティスに合わせて、微調整されたモデルの優れた能力を示しています。したがって、微調整されたモデルは、ユーザーフレンドリーで構造化された、サポート的な応答を必要とするタスクのより強い選択です。
クエリ:
応答:
GPT-4Oによる応答:
微調整されたモデルは、ベースモデルと比較してユーザーのエンゲージメントと明確さを大幅に向上させます。 GPT-4oは構造化されたが一般的な応答を提供しますが、微調整されたバージョンはより会話的で協力的なトーンを採用し、相互作用をより自然に感じさせます。
クエリ3クエリ:「個人情報を更新する方法がわからない」 応答:
GPT-4Oによる
応答:
比較分析
この場合、モデルを微調整して、顧客によりよく応答します。相互作用がより個人的で、フレンドリーで、サポート的に感じられるようになり、接続が強くなり、ユーザーの満足度が高まります。基本モデルは明確で正確な情報を提供しますが、ロボットで魅力的でないと感じることができます。 Openaiの便利なWebプラットフォームを介してモデルを微調整することは、ドメイン固有のタスクのカスタム大型言語モデルを構築するのに最適な方法です。
よくある質問以上がカスタマーサポートのためのOpenAIプラットフォームでモデルを微調整しますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。