Google は最近、大規模な言語モデル向けに特別に設計された ASPIRE トレーニング フレームワークの開始を発表するプレス リリースを発行しました。このフレームワークは、AI モデルの選択的予測機能を向上させることを目的としています。
Google は、大規模な言語モデルは自然言語理解とコンテンツ生成において急速に発展しており、さまざまな革新的なアプリケーションの構築に使用されていますが、これらは高度な用途で使用する必要があると述べました。リスクへの適用 意思決定の場面では依然として不適切です。これは、モデル予測の不確実性と「幻覚」の可能性によるものです。そのため、Google は、一連のモデルに「信頼性」メカニズムを導入する ASPIRE トレーニング フレームワークを開発しました。一連の回答。各回答には正解スコア となる確率があります。
モデルの予測能力の強化に重点を置きます。研究者は主に、一連の調整可能なパラメーターをモデルに導入し、特定のタスクのトレーニング データセットに基づいて事前トレーニングされた言語モデルを微調整します。これにより、モデルの予測パフォーマンスが向上し、モデルが特定の問題をより適切に解決できるようになります。
第 2 段階は「回答サンプリング」です。特定の微調整の後、モデルは以前に学習した調整可能なパラメータを使用して、トレーニング質問ごとに異なる回答を生成できます。自己評価学習用のデータセットを使用して、高い信頼性を持ってさまざまな回答を生成します。
「自己評価学習」の第 3 段階では、研究者らは、特にモデルの自己評価機能を向上させるために、一連の調整可能なパラメーターをモデルに追加しました。 この段階の目標は、モデルに「出力された答えの精度を自分で判断する」ことを学習させることです
Google 研究者は、CoQA、TriviaQA、SQuAD の 3 つの質問と回答のデータセットを使用して、ASPIRE トレーニング フレームワークの結果を検証しました。「ASPIRE によって調整された OPT-2.7B 小型モデルのパフォーマンスがはるかに優れている」と言われています。大型の OPT-30B モデルよりも優れています。実験結果は、適切な調整を行えば、シナリオによっては小規模な言語モデルでも大規模な言語モデルを上回る可能性があることも示しています。
研究者らは、ASPIRE フレームワーク トレーニングにより、微調整後に、たとえ小規模なモデルであっても、大規模な言語モデルの出力精度を大幅に向上させることができると結論付けました。 " 予報###。
以上がGoogle、AIが出力精度を独立して判断できるモデルトレーニングフレームワーク「ASPIRE」をリリースの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。