目次
1. ChatGPT 関連テクノロジー" >1. ChatGPT 関連テクノロジー
2. ソリューションのアイデア" >2. ソリューションのアイデア
2. 独自のデータに基づいてローカル モデルをトレーニングする" >2. 独自のデータに基づいてローカル モデルをトレーニングする
ホームページ テクノロジー周辺機器 AI ChatGPT テクノロジーをローカライズする試み

ChatGPT テクノロジーをローカライズする試み

Apr 08, 2023 am 11:31 AM
chatgpt openai

ChatGPT テクノロジーをローカライズする試み

この共有のトピックは、ChatGPT テクノロジ、ローカリゼーションの試み、およびオープン ソース モデルです。この共有は 3 つの部分で構成されており、最初の部分では、ChatGPT テクノロジーの進化、現在の問題、ChatGPT テクノロジー学習の 3 つの段階、データの編成と効果の評価など、ChatGPT 関連テクノロジーの全体的な紹介を行い、2 番目の部分では ChatGPT に関する経験を共有しています。テクノロジーのローカライゼーションに関する私たちの試みには、実験中に遭遇した問題、私たちの考え、モデルの効果と応用が含まれており、第 3 部では、私たちがリリースした中国のオープンソース大規模モデルと、私たちが独自のデータを使用して学習する方法を紹介します。ローカルモデル 運用中に遭遇する可能性のある問題、オープンソースの先進モデルとのギャップ、モデルの効果をさらに高める方法。

1. ChatGPT 関連テクノロジー

ChatGPT は、一般的な機能アシスタントです。 2022 年 12 月 5 日、OpenAI CEO のサム アルトマン氏は、ChatGPT のユーザー数が開始から 5 日後に 100 万人を超えたとソーシャル メディアに投稿しました。 AI チャットボット ChatGPT は爆発的に人気を博し、画期的なイベントになりました。 Microsoftは株式を100億ドル増額し、近くMicrosoft Cloudに統合する方向で交渉を進めている。

ChatGPT テクノロジーをローカライズする試み

#上の図は 2 つの例を示しており、驚くべき結果が示されています。

ChatGPT が非常に人気がある理由は、一方ではユーザーの意図を理解し、より良い効果を生み出す能力にありますが、他方では、対話型ロボットの活用により、誰もが利用できるようになりました。

以下では、モデルの進化、初期モデルの問題点、ChatGPT モデル学習の 3 段階、データ構成とトレーニングの効果について説明します。 ChatGPTモデルを紹介します。

1. モデルの進化

ChatGPT テクノロジーも、数世代のモデルを通じて進化してきました。初期の GPT モデルは次のとおりです。 2018 年に提案されたモデル パラメーターはわずか 1 億 1,700 万個でしたが、2019 年には GPT-2 モデル パラメーターは 15 億個でした。2020 年までに GPT-3 モデル パラメーターは 1,750 億個に達しました。数世代のモデル更新反復を経て、 ChatGPT 2022モデル。

ChatGPT テクノロジーをローカライズする試み

2. 前モデルにはどのような問題がありましたか?

In ChatGPT モデルが登場する前のモデルにはどのような問題がありましたか?分析の結果、より明らかな問題の 1 つは位置合わせの問題であり、大規模なモデルの生成能力は比較的高いものの、生成された答えがユーザーの意図を満たさない場合があることがわかりました。研究を通じて、アライメントの問題の主な理由は、言語モデル トレーニングのトレーニング目標が、ユーザーの意図に従って次の単語を生成するのではなく、次の単語を予測することであることが判明しました。アライメントの問題を解決するために、ChatGPT モデルのトレーニング プロセスにヒューマン フィードバックからの強化学習 (RLHF) プロセスが追加されます。

3. 3 つの学習段階

ChatGPT モデルのトレーニング プロセスは 3 つの段階で実行されます。ステッププロセス。

最初のステップは、 GPT モデルに基づく教師あり学習に実際のユーザー入力を使用することです。プロセス内のデータは実際のユーザーからのものであり、データの品質は比較的高く、価値があります。

2 番目のステップは、報酬モデルをトレーニングすることです。モデルが異なれば、クエリに対して異なる出力が生成されます。その結果、タガーはすべてのモデルの出力結果を並べ替え、これらの並べ替えられたデータを使用して報酬モデルをトレーニングします。

3 番目のステップは、モデルによって生成された暫定的な回答を報酬モデルに入力します。報酬モデルは回答を評価します。生成された場合、答えがユーザーの意図に沿ったものであればポジティブなフィードバックが与えられ、そうでなければネガティブなフィードバックが与えられることでモデルがどんどん良くなっていき、生成される結果をより人間のニーズに沿ったものにすることが強化学習を導入する目的です。 。 ChatGPT モデルをトレーニングする 3 段階のプロセスを次の図に示します。

ChatGPT テクノロジーをローカライズする試み

#4. データの整理と効果の評価

モデルをトレーニングする前に、使用するデータ セットを準備する必要があります。このプロセスでは、データ コールド スタートの問題が発生します。次の 3 つの側面によって解決できます:

#(1) 旧システムのユーザーが使用していたデータセットを収集する

#(2) いくつかのプロンプトを考える前に、アノテーターがいくつかの同様のプロンプトに注釈を付け、実際のユーザーが入力した質問に基づいて

を出力します。 ChatGPT モデルをトレーニングするためのデータには、データ セット (77,000 の実データ) の 3 つの部分が含まれています。

(1) 教師あり学習ベース実際のユーザー プロンプト データ、ユーザー プロンプト、モデル応答のデータ量は 13k です。

(2) 報酬モデルのトレーニングに使用されるデータセット。データのこの部分は、1 つのプロンプトに対応する複数の応答を並べ替えるためのものです。データ量は33kです。

# (3) モデルのトレーニングに強化学習テクノロジーを使用した報酬モデルに基づくデータセット。ユーザーのプロンプトのみが必要です。データ量は 31k、高い品質要件があります。 ChatGPT モデルのトレーニングを完了すると、主に次の側面からモデルの評価が比較的十分になります。

(1) かどうかモデルによって生成された結果はユーザーの意図を満たしているか

(2) 生成された結果はユーザーが指定した制約を満たせるかどうか

(3) 顧客サービス分野で良い結果が得られるかどうか

#従来モデルとの比較詳細GPT基本モデル 実験結果を下図に示します。

2. ChatGPT テクノロジーのローカライゼーション

#以下では、その背景と問題点、解決策のアイデア、効果について説明します。この側面では、ChatGPT テクノロジーのローカリゼーションを紹介します。

1. 背景と課題

ローカライゼーションを行う必要がある理由として、主に次の点を考慮します。

## (1) ChatGPT テクノロジー自体は比較的先進的で、多くのタスクにうまく機能しますが、中国本土にはサービスを提供しません。

# (2) 国内のエンタープライズレベルの顧客のニーズを満たすことができない可能性があり、現地に合わせた技術サポートやサービスを提供できない場合があります。

# (3) 価格は主な市場であるヨーロッパとアメリカでは米ドルで設定されており、価格は比較的高価であり、国内ユーザーのほとんどは余裕がありません。テストの結果、データあたりのコストは約 0.5 元であり、大量のデータを持つ顧客には商用化が不可能であることが判明しました。

上記の 3 つの問題のため、私たちは ChatGPT テクノロジーのローカライズを試みました。

2. ソリューションのアイデア

#現在、ChatGPT テクノロジーのローカライズを進めています。 , 分散戦略が採用されました。

最初に、数百億のパラメータを持つ中国語の事前トレーニング モデルがトレーニングされました。次に、10 億レベルのタスク データに対して Prompt を使用してタスク教師あり学習が実行され、その後モデルが会話化、つまり対話または人間とコンピューターの相互作用の形で人々と対話する; 最後に、報酬モデルとユーザー フィードバックの強化学習 RLHF テクノロジーを紹介します。

プロンプト マルチタスク学習モデル (PromptCLUE) は、すべての中国語タスクのゼロサンプル学習をサポートするモデルです。このモデルは、統一モデル、統一データ形式(すべてのタスクをプロンプト形式に変換)、統一使用方法(ゼロサンプル形式で使用)の 3 つの主要な統一を実現します。このモデルは、1,000 億の中国語単語レベルのトークンの教師なし学習に基づいており、10 億レベルの下流タスク データでトレーニングされ、1 兆 5,000 億の中国語単語レベルのトークンが蓄積されています。 20 を超えるタスク (テキスト理解、抽出、生成タスク) でのゼロサンプルの使用をサポートします。

ChatGPT テクノロジーをローカライズする試み

モデルを会話型にする方法、つまり人間とコンピューターの対話形式のモデルに変換する方法、私たちは主に次の側面を行いました 作業:

まず、モデルの生成効果を高めるために、テキストの理解と抽出のタスクを削除し、質問を強化しました。応答、対話、生成タスク、学習、第二に、対話モデルに変換した後、生成された結果はコンテキストによって干渉されます。この問題に対処するために、モデルが必要に応じて無関係なコンテキストを無視できるように、干渉防止データを追加しました。 ; 最後に、実際のユーザーのフィードバック データに基づいて、モデルがユーザーの意図をよりよく理解できるようにするための学習プロセスが追加されました。以下の図は、モデルを使用した単一ラウンドおよび複数ラウンドのテストの形式を示しています。

ChatGPT テクノロジーをローカライズする試み

#3. 効果と実践

#以下は、次のテストです。 ChatGPT モデルと現在の効果を比較すると、まだ 1 ~ 2 年のギャップがありますが、このギャップは徐々に埋めることができます。現時点では、いくつかの有用な試みが行われ、一定の成果が得られています。現在、対話、Q&A、執筆、その他のやり取りが行われています。下の画像はテスト結果を示しています。

##3. 国内オープンソース大規模モデル

##1. 中国オープンソース モデル

最近リリースしたメタ言語関数型対話モデル (ChatYuan) には 7 億 7,000 万のパラメータがあります。オンライン バージョンは 100 億のパラメータを持つモデルです。Huggingface、ModelScope、Github を含む複数のプラットフォームで起動されています。paddlepaddleに使える。モデルをローカルにダウンロードし、独自のユーザー データ セットに基づいて微調整することができます。これは、PromptCLUE-large と数億の機能対話マルチラウンド対話データを組み合わせたものに基づいてさらにトレーニングされています。

ChatGPT テクノロジーをローカライズする試み

ChatGPT テクノロジーをローカライズする試み

ハギングフェイス プラットフォームモデルをローカルで使用する方法を示す例として取り上げられています。プラットフォーム上でChatYuanを検索し、モデルをロードし、簡単なパッケージ化を実行します。サンプルをサンプリングするかどうかなど、使用する重要なパラメーターがいくつかあります。さまざまなサンプルを生成する必要がある場合は、サンプリングする必要があります。

2. 独自のデータに基づいてローカル モデルをトレーニングする

#まず、データを次の 2 つの部分で構成される統一された形式に編成する必要があります。入出力。 1 ラウンドの質問と回答または生成された入力 (入力) の場合: タスク説明の入力テキスト (「ユーザー: Hello n Xiaoyuan:」など)、出力 (出力) は、システムが予測する必要があるテキスト (次のような) を指します。 : 「こんにちは! 私はメタ言語 AI です...」)。マルチラウンド ダイアログ入力 (入力) の場合: 入力テキストの上のタスクの説明。出力は、以下の図の「Xiaoyuan」の後に示すように、システムが予測する必要があるテキストを指します。

ChatGPT テクノロジーをローカライズする試み

#次の図は、独自のデータに基づいてローカル モデルをトレーニングする例を示しています。この例では、データの準備からオープンソース データのダウンロードと変換、モデルのトレーニング、予測、評価までのプロセス全体を取り上げます。基礎となるのは pCLUE マルチタスク データセットです。ユーザーは独自のデータをトレーニングに使用することも、pCLUE を使用して事前トレーニングを行って効果をテストすることもできます。

ChatGPT テクノロジーをローカライズする試み

#3. 考えられる問題、ギャップ、効果をさらに改善する方法

ChatYuan と ChatGPT はどちらも一般的な機能会話モデルであり、チャットや法律や医学などの専門分野での質問と回答、対話、生成が可能です。 ChatGPT モデルと比較すると、依然として一定のギャップがあり、主に次の側面に反映されています:

  • モデル サイズ 、 ChatGPT には数千億のパラメータがあり、ChatYuan には数百億のパラメータがあります。
  • 学習されたデータの量に関しては、これも大きなギャップであり、ChatYuan モデルはまだ学習プロセス中です。
  • 強化学習の観点から見ると、ChatGPT モデルには次のような特徴があります。ユーザーベースのフィードバック強化学習を導入しましたが、私たちのモデルはまだ導入の途中です。 #モデルを使用する過程で、データ形式が正しいかどうかに応じて、生成効果やテキストの長さに関する問題が発生する可能性があります。サンプリング サンプルの生成プロセス中かどうか、出力結果の長さが max_length などを制御します。

#モデルの効果をさらに向上させるには、次の点から始めることができます:

# # (1) 教師なし事前トレーニングを含むさらなるトレーニングのために業界データを結合し、教師あり学習に大量の高品質データを使用します。

## (2) 実際のユーザーのフィードバック データを使用した学習により、分布の違いを補うことができます。

#(3) 強化学習を導入してユーザーの意図を一致させる。

# (4) より大きなモデルを選択する 一般的に、モデルが大きいほど、モデルの機能が強化されます。

ChatGPT によってもたらされた新しいテクノロジーと使用シナリオにより、人々は AI の大きな可能性を理解できるようになります。より多くのアプリケーションがアップグレードされ、いくつかの新しいアプリケーションの可能性が生まれます。

Yuanyu Intelligence は、大規模モデルの Model-as-a-Service サービス プロバイダーとして、この分野でも常に調査を行っています。ご興味のあるパートナー様は、当社ウェブサイトおよび公式アカウントをぜひご注目ください。

今日の共有はこれで終わりです。皆さん、ありがとうございました。

以上がChatGPT テクノロジーをローカライズする試みの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

ChatGPT では、無料ユーザーが 1 日あたりの制限付きで DALL-E 3 を使用して画像を生成できるようになりました ChatGPT では、無料ユーザーが 1 日あたりの制限付きで DALL-E 3 を使用して画像を生成できるようになりました Aug 09, 2024 pm 09:37 PM

DALL-E 3は、前モデルより大幅に改良されたモデルとして2023年9月に正式導入されました。これは、複雑な詳細を含む画像を作成できる、これまでで最高の AI 画像ジェネレーターの 1 つと考えられています。ただし、発売当初は対象外でした

Spring Boot と OpenAI の出会いによる新しいプログラミング パラダイム Spring Boot と OpenAI の出会いによる新しいプログラミング パラダイム Feb 01, 2024 pm 09:18 PM

2023年、AI技術が注目を集め、プログラミング分野を中心にさまざまな業界に大きな影響を与えています。 AI テクノロジーの重要性に対する人々の認識はますます高まっており、Spring コミュニティも例外ではありません。 GenAI (汎用人工知能) テクノロジーの継続的な進歩に伴い、AI 機能を備えたアプリケーションの作成を簡素化することが重要かつ緊急になっています。このような背景から、AI 機能アプリケーションの開発プロセスを簡素化し、シンプルかつ直観的にし、不必要な複雑さを回避することを目的とした「SpringAI」が登場しました。 「SpringAI」により、開発者はAI機能を搭載したアプリケーションをより簡単に構築でき、使いやすく、操作しやすくなります。

データに最適なエンベディング モデルの選択: OpenAI とオープンソースの多言語エンベディングの比較テスト データに最適なエンベディング モデルの選択: OpenAI とオープンソースの多言語エンベディングの比較テスト Feb 26, 2024 pm 06:10 PM

OpenAI は最近、最新世代の埋め込みモデル embeddingv3 のリリースを発表しました。これは、より高い多言語パフォーマンスを備えた最もパフォーマンスの高い埋め込みモデルであると主張しています。このモデルのバッチは、小さい text-embeddings-3-small と、より強力で大きい text-embeddings-3-large の 2 つのタイプに分類されます。これらのモデルがどのように設計され、トレーニングされるかについてはほとんど情報が開示されておらず、モデルには有料 API を介してのみアクセスできます。オープンソースの組み込みモデルは数多くありますが、これらのオープンソース モデルは OpenAI のクローズド ソース モデルとどう違うのでしょうか?この記事では、これらの新しいモデルのパフォーマンスをオープンソース モデルと実証的に比較します。データを作成する予定です

携帯電話にchatgptをインストールする方法 携帯電話にchatgptをインストールする方法 Mar 05, 2024 pm 02:31 PM

インストール手順: 1. ChatGTP ソフトウェアを ChatGTP 公式 Web サイトまたはモバイル ストアからダウンロードします; 2. それを開いた後、設定インターフェイスで言語を中国語を選択します; 3. ゲーム インターフェイスでヒューマン マシン ゲームを選択し、中国スペクトル; 4 . 起動後、チャット ウィンドウにコマンドを入力してソフトウェアを操作します。

OpenAI Super Alignment チームの遺作: 2 つの大きなモデルがゲームをプレイし、出力がより理解しやすくなる OpenAI Super Alignment チームの遺作: 2 つの大きなモデルがゲームをプレイし、出力がより理解しやすくなる Jul 19, 2024 am 01:29 AM

AIモデルによって与えられた答えがまったく理解できない場合、あなたはそれをあえて使用しますか?機械学習システムがより重要な分野で使用されるにつれて、なぜその出力を信頼できるのか、またどのような場合に信頼してはいけないのかを実証することがますます重要になっています。複雑なシステムの出力に対する信頼を得る方法の 1 つは、人間または他の信頼できるシステムが読み取れる、つまり、考えられるエラーが発生する可能性がある点まで完全に理解できる、その出力の解釈を生成することをシステムに要求することです。見つかった。たとえば、司法制度に対する信頼を築くために、裁判所に対し、決定を説明し裏付ける明確で読みやすい書面による意見を提供することを求めています。大規模な言語モデルの場合も、同様のアプローチを採用できます。ただし、このアプローチを採用する場合は、言語モデルが

Rust ベースの Zed エディターはオープンソース化されており、OpenAI と GitHub Copilot のサポートが組み込まれています Rust ベースの Zed エディターはオープンソース化されており、OpenAI と GitHub Copilot のサポートが組み込まれています Feb 01, 2024 pm 02:51 PM

著者丨コンパイル: TimAnderson丨プロデュース: Noah|51CTO Technology Stack (WeChat ID: blog51cto) Zed エディター プロジェクトはまだプレリリース段階にあり、AGPL、GPL、および Apache ライセンスの下でオープンソース化されています。このエディターは高性能と複数の AI 支援オプションを備えていますが、現在は Mac プラットフォームでのみ利用可能です。 Nathan Sobo 氏は投稿の中で、GitHub 上の Zed プロジェクトのコード ベースでは、エディター部分は GPL に基づいてライセンスされ、サーバー側コンポーネントは AGPL に基づいてライセンスされ、GPUI (GPU Accelerated User) インターフェイス部分はApache2.0ライセンス。 GPUI は Zed チームによって開発された製品です

OpenAI を待つのではなく、Open-Sora が完全にオープンソースになるのを待ちましょう OpenAI を待つのではなく、Open-Sora が完全にオープンソースになるのを待ちましょう Mar 18, 2024 pm 08:40 PM

少し前まで、OpenAISora はその驚くべきビデオ生成効果で急速に人気を博し、数ある文学ビデオ モデルの中でも際立って世界的な注目を集めるようになりました。 2 週間前にコストを 46% 削減した Sora トレーニング推論再現プロセスの開始に続き、Colossal-AI チームは世界初の Sora のようなアーキテクチャのビデオ生成モデル「Open-Sora1.0」を完全にオープンソース化し、全体をカバーしました。データ処理、すべてのトレーニングの詳細、モデルの重みを含むトレーニング プロセスを管理し、世界中の AI 愛好家と協力してビデオ作成の新時代を推進します。ちょっと覗いてみましょう。Colossal-AI チームがリリースした「Open-Sora1.0」モデルによって生成された賑やかな街のビデオを見てみましょう。オープンソラ1.0

Embedding サービスのローカル実行パフォーマンスは OpenAI Text-Embedding-Ada-002 を上回っており、とても便利です。 Embedding サービスのローカル実行パフォーマンスは OpenAI Text-Embedding-Ada-002 を上回っており、とても便利です。 Apr 15, 2024 am 09:01 AM

Ollama は、Llama2、Mistral、Gemma などのオープンソース モデルをローカルで簡単に実行できるようにする非常に実用的なツールです。この記事では、Ollamaを使ってテキストをベクトル化する方法を紹介します。 Ollama をローカルにインストールしていない場合は、この記事を読んでください。この記事では、nomic-embed-text[2] モデルを使用します。これは、短いコンテキストおよび長いコンテキストのタスクにおいて OpenAI text-embedding-ada-002 および text-embedding-3-small よりも優れたパフォーマンスを発揮するテキスト エンコーダーです。 o が正常にインストールされたら、nomic-embed-text サービスを開始します。

See all articles