ホームページ テクノロジー周辺機器 AI 人間の好みが支配者です! SPPO アライメント技術により、大規模な言語モデル同士の競合や、それ自体との競合が可能になります。

人間の好みが支配者です! SPPO アライメント技術により、大規模な言語モデル同士の競合や、それ自体との競合が可能になります。

Jun 06, 2024 pm 06:32 PM
プロジェクト セルフゲーム設定の最適化

人間の好みが支配者です! SPPO アライメント技術により、大規模な言語モデル同士の競合や、それ自体との競合が可能になります。
AIxivコラムは、当サイトが学術的・技術的な内容を掲載するコラムです。過去数年間で、このサイトの AIxiv コラムには 2,000 件を超えるレポートが寄せられ、世界中の主要な大学や企業のトップ研究室がカバーされ、学術交流と普及を効果的に促進しています。共有したい優れた作品がある場合は、お気軽に寄稿するか、報告のために当社までご連絡ください。提出電子メール: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com

リチャード・サットンは「苦い教訓」で次のように評価しました。「70 年間の人工知能研究から引き出せる最良の結論は、重要な教訓は、計算を利用する一般的な方法が最終的には最も効率的であり、その利点は非常に大きいということです。「セルフ プレイは、計算を完全に利用してスケールアップするために検索と学習の両方を使用するそのような方法の 1 つです。

今年の初めに、カリフォルニア大学ロサンゼルス校 (UCLA) の Gu Quanquan 教授のチームは、追加の微調整データを使用しない
セルフプレイ微調整 (SPIN)
を提案しました。セルフプレイのみに依存して、LLM の機能を大幅に向上させることができます。
最近、カーネギーメロン大学(CMU)のGu Quanquan教授のチームとYiming Yang教授のチームは、「
Self-Play Preference Optimization (SPPO)
」アライメント技術と呼ばれる手法を開発するために協力しました。この新しい手法は、最適化を目的としています。セルフゲーム フレームワークを通じて大規模な言語モデルの動作を人間の好みに合わせて調整します。左から右に戦って、もう一度あなたの魔法の力を誇示してください!

人間の好みが支配者です! SPPO アライメント技術により、大規模な言語モデル同士の競合や、それ自体との競合が可能になります。論文のタイトル: 言語モデルの調整のためのセルフプレイ設定の最適化

  • 論文のリンク: https://arxiv.org/pdf/2405.00675.pdf
テクノロジー背景と課題

大規模言語モデル (LLM) は、人工知能の分野における重要な推進力となりつつあり、その優れたテキスト生成および理解機能によりさまざまなタスクで優れたパフォーマンスを発揮します。 LLM の機能は優れていますが、これらのモデルの出力動作を実際のアプリケーションのニーズとより一致させるには、多くの場合、調整プロセスによる微調整が必​​要になります。

このプロセスの鍵は、人間の好みや行動規範をよりよく反映するようにモデルを調整することです。一般的な方法には、ヒューマン フィードバックに基づく強化学習 (RLHF) または直接嗜好の最適化 (直接嗜好の最適化、DPO) が含まれます。

ヒューマンフィードバックに基づく強化学習 (RLHF) は、大規模な言語モデルを調整および改良するために報酬モデルを明示的に維持することに依存しています。つまり、たとえば、InstructGPT は、まず人間の嗜好データに基づいて Bradley-Terry モデルに従う報酬関数をトレーニングし、次に近接ポリシー最適化 (PPO) などの強化学習アルゴリズムを使用して大規模な言語モデルを最適化します。昨年、研究者らは Direct Preference Optimization (DPO) を提案しました。

明示的な報酬モデルを維持する RLHF とは異なり、DPO アルゴリズムは暗黙的に Bradley-Terry モデルに従いますが、大規模な言語モデルの最適化に直接使用できます。既存の研究では、DPO を複数回繰り返して使用することで、大規模なモデルをさらに微調整することが試みられています (図 1)。

- 数値スコア。これらのモデルは人間の好みの合理的な近似を提供しますが、人間の行動の複雑さを完全に捉えることはできません。 人間の好みが支配者です! SPPO アライメント技術により、大規模な言語モデル同士の競合や、それ自体との競合が可能になります。

これらのモデルは、さまざまな選択間の選好関係が単調で推移的であると仮定することが多い一方で、経験的証拠は人間の意思決定の一貫性と非線形性を示していることがよくあります。たとえば、トベルスキーの研究では、人間の意思決定が影響を受ける可能性があることが観察されています。さまざまな要因が影響し、矛盾が生じます。

SPPOの理論的根拠と手法

两 図 2. 想像上の 2 つの言語モデルは頻繁に再生されます。
これらの文脈で、著者は新しいセルフゲーム フレームワーク SPPO を提案します。これは、2 プレイヤー定数和ゲームを解くための証明可能な保証があるだけでなく、大規模な言語モデルを効率的に微調整します。大規模にスケールします。
具体的には、この記事では RLHF 問題を 2 プレイヤーの通常の合計ゲームとして厳密に定義しています (図 2)。この研究の目的は、平均して常に他のどの戦略よりも好ましい反応をもたらすナッシュ均衡戦略を特定することです。

ナッシュ均衡戦略を近似的に特定するために、著者は、2 プレイヤー ゲームを解くための高レベルのフレームワーク アルゴリズムとして、乗算重みを備えた古典的なオンライン適応アルゴリズムを採用します。

このフレームワークの各ステップ内で、アルゴリズムはセルフゲーム メカニズムを通じて乗算的な重みの更新を近似できます。各ラウンドでは、大規模な言語モデルがモデル合成によって生成された前のラウンドに対して自ら微調整されます。最適化のためのデータと設定モデルのアノテーション。

具体的には、大規模な言語モデルは各ラウンドの各プロンプトに対して複数の応答を生成し、アルゴリズムは各応答の勝率を推定し、それによってさらに微調整することができます。大規模な言語モデルでは、パラメーターにより、勝率の高い応答が表示される確率が高くなります (図 3)。

人間の好みが支配者です! SPPO アライメント技術により、大規模な言語モデル同士の競合や、それ自体との競合が可能になります。

実験デザインと結果
実験では、研究チームはMistral-7Bをベースラインモデルとして採用し、UltraFeからの60,000のプロンプトを使用しました。教師なしトレーニング用の edback データセット。彼らは、自動再生により、モデルが AlpacaEval 2.0 や MT-Bench などの複数の評価プラットフォームでパフォーマンスを大幅に向上できることを発見しました。これらのプラットフォームは、モデルによって生成されたテキストの品質と関連性を評価するために広く使用されています。

SPPO メソッドを通じて、モデルは生成されたテキストの流暢さ
精度
が向上するだけでなく、より重要なことに、「人間の価値観や好みに適合する点でパフォーマンスが向上する」ということです。 O 図 4. Alpacaeval 2.0 に対する thesppo モデルの効果は大幅に改善されており、ITERATIVE DPO などの他のベンチマーク手法よりも優れています。

AlpacaEval 2.0 (図 4) のテストでは、SPPO に最適化されたモデルは長さ制御の勝率をベースライン モデルの 17.11% から 28.53% に向上させ、人間の好みの理解が大幅に向上したことを示しました。 。 3 ラウンドの SPPO によって最適化されたモデルは、AlpacaEval2.0 での DPO、IPO、および自己報酬型言語モデル (Self-Rewarding LM) の複数ラウンドの反復よりも大幅に優れています。
さらに、MT-Bench でのモデルのパフォーマンスも、人間のフィードバックによって調整された従来のモデルを上回りました。これは、モデルの動作を複雑なタスクに自動的に適応させる SPPO の有効性を示しています。

人間の好みが支配者です! SPPO アライメント技術により、大規模な言語モデル同士の競合や、それ自体との競合が可能になります。

結論と将来の展望

セルフプレイ設定最適化 (SPPO) は、大規模な言語モデルに新しい最適化パスを提供します。これにより、モデルの生成品質が向上するだけでなく、より重要なことに、モデルの生成品質が向上します。人間の好みに合わせたモデルの品質。

テクノロジーの継続的な開発と最適化により、SPPO とその派生テクノロジーは、人工知能の持続可能な開発と社会的応用においてより大きな役割を果たすことが期待されており、よりインテリジェントで責任ある AI システムを構築する道が開かれることになります。 。

以上が人間の好みが支配者です! SPPO アライメント技術により、大規模な言語モデル同士の競合や、それ自体との競合が可能になります。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

ControlNet の作者がまたヒット作を出しました!写真から絵画を生成し、2 日間で 1.4,000 個のスターを獲得する全プロセス ControlNet の作者がまたヒット作を出しました!写真から絵画を生成し、2 日間で 1.4,000 個のスターを獲得する全プロセス Jul 17, 2024 am 01:56 AM

これも Tusheng のビデオですが、PaintsUndo は別の道を歩んでいます。 ControlNet 作者 LvminZhang が再び生き始めました!今回は絵画の分野を目指します。新しいプロジェクト PaintsUndo は、開始されて間もなく 1.4kstar を獲得しました (まだ異常なほど上昇しています)。プロジェクトアドレス: https://github.com/lllyasviel/Paints-UNDO このプロジェクトを通じて、ユーザーが静止画像を入力すると、PaintsUndo が線画から完成品までのペイントプロセス全体のビデオを自動的に生成するのに役立ちます。 。描画プロセス中の線の変化は驚くべきもので、最終的なビデオ結果は元の画像と非常によく似ています。完成した描画を見てみましょう。

オープンソース AI ソフトウェア エンジニアのリストのトップに立つ UIUC のエージェントレス ソリューションは、SWE ベンチの実際のプログラミングの問題を簡単に解決します オープンソース AI ソフトウェア エンジニアのリストのトップに立つ UIUC のエージェントレス ソリューションは、SWE ベンチの実際のプログラミングの問題を簡単に解決します Jul 17, 2024 pm 10:02 PM

AIxivコラムは、当サイトが学術的・技術的な内容を掲載するコラムです。過去数年間で、このサイトの AIxiv コラムには 2,000 件を超えるレポートが寄せられ、世界中の主要な大学や企業のトップ研究室がカバーされ、学術交流と普及を効果的に促進しています。共有したい優れた作品がある場合は、お気軽に寄稿するか、報告のために当社までご連絡ください。提出電子メール: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com この論文の著者は全員、イリノイ大学アーバナ シャンペーン校 (UIUC) の Zhang Lingming 教師のチームのメンバーです。博士課程4年、研究者

RLHF から DPO、TDPO に至るまで、大規模なモデル アライメント アルゴリズムはすでに「トークンレベル」になっています RLHF から DPO、TDPO に至るまで、大規模なモデル アライメント アルゴリズムはすでに「トークンレベル」になっています Jun 24, 2024 pm 03:04 PM

AIxivコラムは、当サイトが学術的・技術的な内容を掲載するコラムです。過去数年間で、このサイトの AIxiv コラムには 2,000 件を超えるレポートが寄せられ、世界中の主要な大学や企業のトップ研究室がカバーされ、学術交流と普及を効果的に促進しています。共有したい優れた作品がある場合は、お気軽に寄稿するか、報告のために当社までご連絡ください。提出メール: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 人工知能の開発プロセスにおいて、大規模言語モデル (LLM) の制御とガイダンスは常に中心的な課題の 1 つであり、これらのモデルが両方とも確実に機能することを目指しています。強力かつ安全に人類社会に貢献します。初期の取り組みは人間のフィードバックによる強化学習手法に焦点を当てていました (RL

arXiv 論文は「弾幕」として投稿可能、スタンフォード alphaXiv ディスカッション プラットフォームはオンライン、LeCun は気に入っています arXiv 論文は「弾幕」として投稿可能、スタンフォード alphaXiv ディスカッション プラットフォームはオンライン、LeCun は気に入っています Aug 01, 2024 pm 05:18 PM

乾杯!紙面でのディスカッションが言葉だけになると、どんな感じになるでしょうか?最近、スタンフォード大学の学生が、arXiv 論文のオープン ディスカッション フォーラムである alphaXiv を作成しました。このフォーラムでは、arXiv 論文に直接質問やコメントを投稿できます。 Web サイトのリンク: https://alphaxiv.org/ 実際、URL の arXiv を alphaXiv に変更するだけで、alphaXiv フォーラムの対応する論文を直接開くことができます。この Web サイトにアクセスする必要はありません。その中の段落を正確に見つけることができます。論文、文: 右側のディスカッション エリアでは、ユーザーは論文のアイデアや詳細について著者に尋ねる質問を投稿できます。たとえば、次のような論文の内容についてコメントすることもできます。

OpenAI Super Alignment チームの遺作: 2 つの大きなモデルがゲームをプレイし、出力がより理解しやすくなる OpenAI Super Alignment チームの遺作: 2 つの大きなモデルがゲームをプレイし、出力がより理解しやすくなる Jul 19, 2024 am 01:29 AM

AIモデルによって与えられた答えがまったく理解できない場合、あなたはそれをあえて使用しますか?機械学習システムがより重要な分野で使用されるにつれて、なぜその出力を信頼できるのか、またどのような場合に信頼してはいけないのかを実証することがますます重要になっています。複雑なシステムの出力に対する信頼を得る方法の 1 つは、人間または他の信頼できるシステムが読み取れる、つまり、考えられるエラーが発生する可能性がある点まで完全に理解できる、その出力の解釈を生成することをシステムに要求することです。見つかった。たとえば、司法制度に対する信頼を築くために、裁判所に対し、決定を説明し裏付ける明確で読みやすい書面による意見を提供することを求めています。大規模な言語モデルの場合も、同様のアプローチを採用できます。ただし、このアプローチを採用する場合は、言語モデルが

リーマン予想の大きな進歩!陶哲軒氏はMITとオックスフォードの新しい論文を強く推薦し、37歳のフィールズ賞受賞者も参加した リーマン予想の大きな進歩!陶哲軒氏はMITとオックスフォードの新しい論文を強く推薦し、37歳のフィールズ賞受賞者も参加した Aug 05, 2024 pm 03:32 PM

最近、2000年代の7大問題の一つとして知られるリーマン予想が新たなブレークスルーを達成した。リーマン予想は、数学における非常に重要な未解決の問題であり、素数の分布の正確な性質に関連しています (素数とは、1 とそれ自身でのみ割り切れる数であり、整数論において基本的な役割を果たします)。今日の数学文献には、リーマン予想 (またはその一般化された形式) の確立に基づいた 1,000 を超える数学的命題があります。言い換えれば、リーマン予想とその一般化された形式が証明されれば、これらの 1,000 を超える命題が定理として確立され、数学の分野に重大な影響を与えることになります。これらの命題の一部も有効性を失います。 MIT数学教授ラリー・ガスとオックスフォード大学から新たな進歩がもたらされる

LLM は時系列予測にはあまり適していません。推論機能も使用しません。 LLM は時系列予測にはあまり適していません。推論機能も使用しません。 Jul 15, 2024 pm 03:59 PM

言語モデルは本当に時系列予測に使用できるのでしょうか?ベタリッジの見出しの法則 (疑問符で終わるニュース見出しは「いいえ」と答えることができます) によれば、答えは「いいえ」であるはずです。このような強力な LLM は時系列データを適切に処理できないという事実は真実のようです。時系列、つまり時系列とは、その名の通り、時間順に並べられた一連のデータ点のことを指します。時系列分析は、病気の蔓延予測、小売分析、ヘルスケア、金融などの多くの分野で重要です。時系列分析の分野では、多くの研究者が最近、大規模言語モデル (LLM) を使用して時系列の異常を分類、予測、検出する方法を研究しています。これらの論文では、テキスト内の逐次依存関係の処理に優れた言語モデルは時系列にも一般化できると想定しています。

最初の Mamba ベースの MLLM が登場しました!モデルの重み、トレーニング コードなどはすべてオープンソースです 最初の Mamba ベースの MLLM が登場しました!モデルの重み、トレーニング コードなどはすべてオープンソースです Jul 17, 2024 am 02:46 AM

AIxivコラムは、当サイトが学術的・技術的な内容を掲載するコラムです。過去数年間で、このサイトの AIxiv コラムには 2,000 件を超えるレポートが寄せられ、世界中の主要な大学や企業のトップ研究室がカバーされ、学術交流と普及を効果的に促進しています。共有したい優れた作品がある場合は、お気軽に寄稿するか、報告のために当社までご連絡ください。提出電子メール: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com。はじめに 近年、さまざまな分野でマルチモーダル大規模言語モデル (MLLM) の適用が目覚ましい成功を収めています。ただし、多くの下流タスクの基本モデルとして、現在の MLLM はよく知られた Transformer ネットワークで構成されています。

See all articles