ホームページ > テクノロジー周辺機器 > AI > カスタマーサポートのためのOpenAIプラットフォームでモデルを微調整します

カスタマーサポートのためのOpenAIプラットフォームでモデルを微調整します

Lisa Kudrow
リリース: 2025-03-04 10:07:09
オリジナル
943 人が閲覧しました

大規模な言語モデル(LLMS)の微調整は、特定のタスクでのパフォーマンスを最適化するために不可欠です。 OpenAIは、GPTモデルを微調整するための堅牢なフレームワークを提供し、組織がドメイン固有の要件に基づいてAIの動作を調整できるようにします。このプロセスは、LLMのカスタマイズにおいて重要な役割を果たし、モデルがより正確で関連性のあるコンテキストを意識した応答を生成できるようにします。また、コード生成とデバッグのためのソフトウェア開発、および契約レビューと判例法の分析のための法的支援にも使用できます。このガイドでは、OpenAIのプラットフォームを使用して微調整プロセスを進め、現実世界のアプリケーションでの微調整モデルのパフォーマンスを評価します。
目次

openaiプラットフォームとは何ですか?
  • 推論のコスト
    • openaiプラットフォームのモデルの微調整
    • ステップ1:データセットの識別
  • ステップ4:OpenAIプラットフォームでの微調整
    • gpt-4o vs Finetuned GPT-4oパフォーマンスチェック
    • クエリ分析
  • よくある質問Openaiプラットフォームとは? OpenAIプラットフォームは、モデルを簡単に調整できるWebベースのツールを提供し、ユーザーが特定のタスクに合わせてカスタマイズできるようにします。データの準備、トレーニングモデル、および結果の評価のための段階的な指示を提供します。さらに、このプラットフォームはAPIとのシームレスな統合をサポートし、ユーザーが微調整されたモデルを迅速かつ効率的に展開できるようにします。また、モデルが時間の経過とともに最適に実行されていることを確認するために、自動バージョンとモデルの監視も提供し、新しいデータが利用可能になるにつれてそれらを更新する機能があります。

    推論のコスト

    Openaiプラットフォームでモデルをトレーニングするのにどれくらいの費用がかかりますか。

    Model Pricing Pricing with Batch API Training Pricing
    gpt-4o-2024-08-06 .750 / 1M input tokens.000 / 1M output tokens .875 / 1M input tokens.500 / 1M output tokens .000 / 1M training tokens
    gpt-4o-mini-2024-07-18 .300 / 1M input tokens.200 / 1M output tokens .150 / 1M input tokens.600 / 1M output tokens .000 / 1M training tokens
    gpt-3.5-turbo .000 / 1M training tokens.000 / 1M output tokens .500 / 1M input tokens.000 / 1M output tokens .000 / 1M training tokens
    詳細については、このページをご覧ください:https://openai.com/api/pricing/

    OpenAIプラットフォームでモデルを微調整します

    モデルを微調整することで、ユーザーは特定のユースケースのモデルをカスタマイズし、精度、関連性、適応性を向上させることができます。このガイドでは、カスタマーサービスのやり取りに対するよりパーソナライズされた、正確でコンテキストを意識した応答に焦点を当てています。

    実際の顧客クエリとインタラクションに関するモデルを微調整することにより、ビジネスは応答の品質を向上させ、誤解を減らし、全体的なユーザーの満足度を向上させることができます。

    また読む:初心者向けガイドの大規模な言語モデル(LLMS)OpenAIプラットフォームを使用してモデルをトレーニングする方法を見てみましょう。これを4つのステップで行います:

    データセットの識別

    dfinetuningデータのダウンロード

      データのインポートと前処理
    1. Openaiプラットフォームでの微調整
    2. 始めましょう!
    3. ステップ1:データセットの識別
    4. モデルを微調整するには、まずユースケースに合わせた高品質のデータセットが必要です。この微調整プロセスのために、AIデータセットとモデルに人気のあるプラットフォームであるHugging Faceからデータセットをダウンロードしました。抱き合っているフェイスデータセットにアクセスして、微調整に適した幅広いデータセットを見つけることができます。関連するデータセットを検索して、それをダウンロードし、必要に応じてそれを前処理して、特定の要件と一致するようにします。
    ステップ2:Finetuningのデータセットのダウンロード

    微調整プロセスのカスタマーサービスデータは、フェイスデータセットを抱き締めることから取得されます。ここからアクセスできます。

    llmsデータは、微調整のために特定の形式である必要があります。 GPT-4O、GPT-4O-MINI、およびGPT-3.5-TURBOのサンプル形式

    次のステップでは、データがどのように見えるかを確認し、必要な形式でない場合は必要な調整を行います。

    ステップ3:データのインポートとプリプロシング

    次に、データとプリプロセスを必要な形式にインポートします。
    {"messages": [{"role": "system", "content": "This is an AI assistant for answering FAQs."}, {"role": "user", "content": "What are your customer support hours?"}, {"role": "assistant", "content": "Our customer support is available	1 24/7. How else may I assist you?"}]}
    ログイン後にコピー
    ログイン後にコピー
    これを行うには、次の手順に従います

    1。次に、Jupyterノートブックにデータをロードし、必要な形式に一致するように変更します。

    カスタマーサポートのためのOpenAIプラットフォームでモデルを微調整します

    ここには6つの異なる列があります。しかし、これらは顧客クエリとそれらに相対的な応答がある列であるため、2つの「命令」と「応答」が必要です。

    上記のCSVファイルを使用して、微調整に必要に応じてJSONLファイルを作成できます。

    上記のように、データフレームを繰り返してJSONLファイルを作成できます。

    ここで、JSONとはわずかに異なるJSONLファイル形式でデータを保存しています。

    json データを単一のファイルに階層構造(オブジェクトと配列)として保存し、ネストの構造化されたデータに適しています。以下は、JSONファイル形式の例です

    {"messages": [{"role": "system", "content": "This is an AI assistant for answering FAQs."}, {"role": "user", "content": "What are your customer support hours?"}, {"role": "assistant", "content": "Our customer support is available	1 24/7. How else may I assist you?"}]}
    ログイン後にコピー
    ログイン後にコピー

    jsonl は、それぞれが別のライン上に、アレイまたはネストされた構造がない複数のJSONオブジェクトで構成されています。この形式は、大規模なデータセットのストリーミング、処理、およびデータラインごとの処理により効率的です。Belowは、jsonlファイル形式の例です ステップ4:Openaiプラットフォームでの微調整

    import pandas as pd
    splits = {'train': 'data/train-00000-of-00001.parquet', 'test': 'data/test-00000-of-00001.parquet'}
    df_train = pd.read_parquet("hf://datasets/charles828/vertex-ai-customer-support-training-dataset/" + splits["train"])
    ログイン後にコピー
    次に、この「query_dataset」を使用して、GPT-4o LLMを微調整します。これを行うには、以下の手順に従ってください。

    1。このWebサイトにアクセスして、サインインしていない場合はサインインしてください。ログインしたら、「詳細」をクリックして、微調整プロセスの詳細をご覧ください。

    2。 「作成」をクリックすると、小さなウィンドウがポップアップ表示されます。

    カスタマーサポートのためのOpenAIプラットフォームでモデルを微調整します

    カスタマーサポートのためのOpenAIプラットフォームでモデルを微調整します上記の画像のハイパーパラメーターの内訳は次のとおりです。

    バッチサイズ:カスタマーサポートのためのOpenAIプラットフォームでモデルを微調整しますこれは、モデルの重みを更新する前に、1つのパス(またはステップ)で使用されるトレーニング例(データポイント)の数(データポイント)の数を指します。すべてのデータを一度に処理する代わりに、モデルは一度に小さなチャンク(バッチ)を処理します。バッチサイズが小さくなるには時間がかかりますが、より良いモデルを作成する場合があります。ここで正しいバランスを見つける必要があります。大きなものはより安定しているかもしれませんが、はるかに速いかもしれません。

    学習レート乗数:

    これは、更新されるたびにモデルの重みがどの程度変化するかを調整する要因です。高く設定されている場合、モデルはより速く学習する可能性がありますが、最良のソリューションをオーバーシュートする可能性があります。それが低い場合、モデルはよりゆっくりと学習しますが、より正確になる可能性があります。 エポックの数:

    「エポック」は、トレーニングデータセット全体を完全に通過する1つの完全なパスです。エポックの数は、モデルがデータセット全体から何回学習するかを示します。通常、より多くのエポックにより、モデルの学習が改善されますが、多くの人が過剰に適合する可能性があります。

    3。 「監視」として、選択した「ベースモデル」としてメソッドを選択します。 GPT-4Oを選択しました。

    4。トレーニングデータにJSONファイルをアップロードします 5。モデルを微調整するタスクに関連する「サフィックス」を追加します。

    6。ハイパーパラメータを選択するか、デフォルト値に任せます。

    7。 「作成」をクリックすると、微調整が開始されます

    8。微調整が完了すると、次のように表示されます。

    カスタマーサポートのためのOpenAIプラットフォームでモデルを微調整します

    9。これで、右下隅の「遊び場」をクリックすることにより、微調整されたモデルと既存のモデルを比較できます。

    重要なメモ:

    微調整期間とコストは、データセットのサイズとモデルの複雑さによって異なります。 100個のサンプルなどの小さなデータセットは、コストが大幅に低くなりますが、モデルを十分に微調整することはできませんが、より大きなデータセットには時間とお金の両方の点でより多くのリソースが必要です。私の場合、データセットには約24kのサンプルがあったため、微調整は約7〜8時間かかり、約700ドルかかりました。

    注意

    高コストを考えると、スケールアップする前に初期テストのために小さなデータセットから始めることをお勧めします。データセットが適切に構造化され、関連性があることを確認することで、パフォーマンスとコスト効率の両方を最適化するのに役立ちます。

    gpt-4o vs Finetuned GPT-4Oパフォーマンスチェック

    モデルを微調整したので、そのパフォーマンスをベースGPT-4Oと比較し、両方のモデルの応答を分析して、精度、明確さ、理解、および関連性の改善があるかどうかを確認します。これは、微調整されたモデルが私たちの特定のニーズを満たし、意図したタスクでより良いパフォーマンスを発揮するかどうかを判断するのに役立ちます。簡潔にするために、3つのプロンプトのサンプル結果が、細かいトイーンと標準のGPT-4Oモデルの両方を形成します。

    クエリ1

    クエリ:

    「新しい配送先住所を提出するのを手伝ってください」

    Finetuned GPT-4Oモデルによる 応答:

    GPT-4Oによる

    応答:カスタマーサポートのためのOpenAIプラットフォームでモデルを微調整します

    比較分析

    カスタマーサポートのためのOpenAIプラットフォームでモデルを微調整します微調整されたモデルは、標準のGPT-4Oと比較して、より詳細でユーザー中心の応答を提供します。 GPT-4oは機能的なステップバイステップガイドを提供しますが、微調整されたモデルは、アドレスの追加と編集を明示的に区別することにより、明確さを強化します。ユーザーにとってより魅力的で安心し、積極的な支援を提供します。これは、カスタマーサービスのベストプラクティスに合わせて、微調整されたモデルの優れた能力を示しています。したがって、微調整されたモデルは、ユーザーフレンドリーで構造化された、サポート的な応答を必要とするタスクのより強い選択です。

    クエリ2

    クエリ:

    「アカウントカテゴリアカウントに変更するために支援が必要です」

    応答:

    GPT-4Oによる

    応答:

    カスタマーサポートのためのOpenAIプラットフォームでモデルを微調整します

    比較分析

    微調整されたモデルは、ベースモデルと比較してユーザーのエンゲージメントと明確さを大幅に向上させます。 GPT-4oは構造化されたが一般的な応答を提供しますが、微調整されたバージョンはより会話的で協力的なトーンを採用し、相互作用をより自然に感じさせます。

    クエリ3

    クエリ:「個人情報を更新する方法がわからない」 応答:

    GPT-4Oによる

    カスタマーサポートのためのOpenAIプラットフォームでモデルを微調整します応答:

    比較分析カスタマーサポートのためのOpenAIプラットフォームでモデルを微調整します

    微調整されたモデルは、より正確で構造化された応答を提供することにより、標準のGPT-4Oを上回ります。 GPT-4oは機能的な答えを提供しますが、微調整されたモデルは、重要な区別に明示的に対処し、より一貫性のある方法で情報を提示することにより、明確さを改善します。さらに、それはコンテキストにより適応し、より関連性のある洗練された応答を確保します。

    全体的な比較分析

    結論

    この場合、モデルを微調整して、顧客によりよく応答します。相互作用がより個人的で、フレンドリーで、サポート的に感じられるようになり、接続が強くなり、ユーザーの満足度が高まります。基本モデルは明確で正確な情報を提供しますが、ロボットで魅力的でないと感じることができます。 Openaiの便利なWebプラットフォームを介してモデルを微調整することは、ドメイン固有のタスクのカスタム大型言語モデルを構築するのに最適な方法です。

    よくある質問

    q1。 AIモデルでは微調整とは何ですか?微調整とは、事前に訓練されたAIモデルを適応させて、特定のタスクを実行するか、より小さなタスク固有のデータセットでさらにトレーニングすることにより、特定の動作を示すプロセスです。これにより、モデルはタスクのニュアンスをよりよく理解し、より正確またはテーラードされた結果を生成することができます。微調整はAIモデルのパフォーマンスをどのように改善しますか?  微調整は、顧客のやり取りに共感を追加するなど、タスクの特定の要件をよりよく処理するように指導することにより、モデルのパフォーマンスを強化します。これにより、モデルはよりパーソナライズされたコンテキストを意識した応答を提供し、相互作用をより人間のように魅力的に感じさせるのに役立ちます。微調整されたモデルはより費用がかかりますか?微調整モデルには、追加のリソースとトレーニングが必要になる場合があり、コストが増加する可能性があります。ただし、より効果的でユーザーフレンドリーなモデルの利点は、特に顧客のやり取りや複雑な問題解決を伴うタスクの場合、初期投資を上回ることがよくあります。自分でモデルを微調整できますか?はい、必要なデータと技術的な専門知識がある場合は、顔、Openaiなどを抱き締める機械学習フレームワークを使用してモデルを微調整できます。ただし、通常、AI、データの準備、トレーニングプロセスを強く理解する必要があります。モデルを微調整するのにどれくらい時間がかかりますか?モデルを微調整するのに必要な時間は、データセットのサイズ、タスクの複雑さ、および利用可能な計算リソースに依存します。広大なデータセットを備えたより大きなモデルでは、数時間から数日以上かかる場合があります。

    以上がカスタマーサポートのためのOpenAIプラットフォームでモデルを微調整しますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

    このウェブサイトの声明
    この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
    著者別の最新記事
    人気のチュートリアル
    詳細>
    最新のダウンロード
    詳細>
    ウェブエフェクト
    公式サイト
    サイト素材
    フロントエンドテンプレート