ホームページ テクノロジー周辺機器 AI 強化学習のもう一つの革命! DeepMind が提案する「アルゴリズム蒸留」: 探索可能な事前トレーニング済み強化学習 Transformer

強化学習のもう一つの革命! DeepMind が提案する「アルゴリズム蒸留」: 探索可能な事前トレーニング済み強化学習 Transformer

Apr 12, 2023 pm 06:58 PM
強化学習 電車

現在のシーケンス モデリング タスクでは、Transformer は最も強力なニューラル ネットワーク アーキテクチャであると言え、事前トレーニングされた Transformer モデルは、プロンプトを条件として使用したり、コンテキスト内学習を使用してさまざまな状況に適応したりできます。 。

大規模な事前トレーニング済み Transformer モデルの汎化能力は、テキスト補完、言語理解、画像生成などの複数の分野で検証されています。

強化学習のもう一つの革命! DeepMind が提案する「アルゴリズム蒸留」: 探索可能な事前トレーニング済み強化学習 Transformer

昨年以来、オフライン強化学習 (オフライン RL) をシーケンス予測問題として扱うことにより、モデルがオフライン データから ポリシーを学習できます。

しかし、現在のメソッドは、学習を含まないデータ (蒸留によって修正されたエキスパート ポリシーなど) からポリシーを学習するか、学習を含むデータ (たとえば、エージェントの重いバッファ)、しかしそのコンテキストが小さすぎるため、ポリシーの改善を捉えることができません。

強化学習のもう一つの革命! DeepMind が提案する「アルゴリズム蒸留」: 探索可能な事前トレーニング済み強化学習 Transformer

DeepMind の研究者は、原則として、強化学習アルゴリズム トレーニングにおける学習の逐次的性質により、強化を学習に変換できることを観察を通じて発見しました。プロセス自体は「因果系列予測問題」 としてモデル化されます。

具体的には、Transformer のコンテキストが学習の更新によるポリシーの改善を含めるのに十分な長さである場合、固定ポリシーを表すだけでなく、次のこともできる必要があります。以前のエピソードの状態、アクション、報酬は、ポリシー改善演算子として表されます。

これは、あらゆる RL アルゴリズムを模倣学習を通じて十分に強力なシーケンス モデルに蒸留し、インコンテキスト RL アルゴリズムに変換できるという技術的な実現可能性も提供します。

これに基づいて、DeepMind は、因果系列モデルを確立することで強化学習アルゴリズムをニューラル ネットワークに抽出するアルゴリズム蒸留 (AD) を提案しました。

強化学習のもう一つの革命! DeepMind が提案する「アルゴリズム蒸留」: 探索可能な事前トレーニング済み強化学習 Transformer

紙のリンク: https://arxiv.org/pdf/2210.14215.pdf #アルゴリズム蒸留は、学習強化学習をクロスエピソードシーケンス予測問題として扱い、ソース RL アルゴリズムを通じて学習履歴データセットを生成し、その学習履歴をコンテキストとして使用して、自己回帰予測を通じて因果トランスフォーマーをトレーニングします。行動 。

エキスパート シーケンスの事後学習やシーケンス ポリシー予測構造とは異なり、AD はネットワーク パラメーターを更新せずに、コンテキストに応じてポリシーを完全に改善できます。

Transformer は独自のデータを収集し、新しいタスクの報酬を最大化します;
  • プロンプトや微調整は必要ありません;
  • 重みを凍結すると、Transformer はコンテキストのリターンを探索、活用し、最大化することができます。 Gato などの専門的な蒸留方法では探究することができず、収益を最大化することはできません。
  • 実験結果は、AD が報酬がまばらで、タスク構造が結合され、ピクセルベースの観察が行われたさまざまな環境で強化学習を実行できること、および AD 学習のデータ効率を証明しています (データ効率) は、ソース データを生成した RL アルゴリズムよりも優れています。

AD は、模倣損失を伴うオフライン データのシーケンス モデリングを通じて、コンテキスト内強化学習手法を実証した最初の

です。

アルゴリズム蒸留

2021 年、一部の研究者は、Transformer が模倣学習を通じてオフライン RL データからシングルタスク ポリシーを学習できることを初めて発見し、その後、次のように拡張されました。同一ドメインおよびクロスドメイン設定でマルチタスク戦略を抽出できます。

これらの研究は、一般的なマルチタスク ポリシーを抽出するための有望なパラダイムを提案しています。まず、多数の異なる環境相互作用データ セットを収集し、次にシーケンス モデリング戦略を通じてデータから 1 つを抽出します。

模倣学習を通じてオフライン RL データからポリシーを学習する方法は、オフライン ポリシー蒸留、または単に ポリシー蒸留 (ポリシー蒸留、PD) とも呼ばれます。

PD のアイデアは非常にシンプルで拡張が簡単ですが、PD には大きな欠陥があります。生成された戦略は、環境との追加の相互作用によって改善されません。

たとえば、MultiGame Decision Transformer (MGDT) は、多数の Atari ゲームをプレイできるリターン条件付きポリシーを学習し、Gato は Strategies で条件付きポリシーを学習しました。さまざまな環境でタスクを解決するためのアプローチですが、どちらのアプローチも試行錯誤を通じて戦略を改善することはできません。

MGDT はモデルの重みを微調整することでトランスフォーマーを新しいタスクに適応させますが、Gato は新しいタスクに適応するために専門家のデモンストレーションのヒントを必要とします。

つまり、ポリシー蒸留メソッドは、強化学習アルゴリズムではなくポリシーを学習します。

研究者らは、Policy Distillation が試行錯誤によって改善できない理由は、学習の進捗が示されていないデータに基づいてトレーニングされているためであると仮説を立てました。

アルゴリズム蒸留 (AD) は、RL アルゴリズムの学習履歴における因果系列予測損失を最適化することによって、固有のポリシー改善演算子を学習する方法です。

強化学習のもう一つの革命! DeepMind が提案する「アルゴリズム蒸留」: 探索可能な事前トレーニング済み強化学習 Transformer

AD には 2 つのコンポーネントが含まれています:

1. トレーニング履歴を保存する多くの個別のタスクに対する RL アルゴリズムの解析により、大規模なマルチタスク データ セットが生成されます;

#2. Transformer は、以前の学習履歴を背景として使用して、アクションの因果関係を構築します。

ポリシーはソース RL アルゴリズムのトレーニング プロセス全体を通じて改善され続けるため、AD はトレーニングの任意の時点でアクションを正確にシミュレートするためにオペレーターを改善する方法を学習する必要があります。歴史。

最も重要なのは、Transformer のコンテキスト サイズが、トレーニング データの改善を捉えるのに十分な大きさ (つまり、エポック全体) である必要があることです。

強化学習のもう一つの革命! DeepMind が提案する「アルゴリズム蒸留」: 探索可能な事前トレーニング済み強化学習 Transformer

実験部分では、インコンテキスト RL 機能における AD の利点を調査するために、研究者はゼロを渡すことができないことに焦点を当てました。事前トレーニング後、ショットは、各環境が複数のタスクをサポートする必要があり、モデルが観察からタスクの解決策を簡単に推測できない環境を解決するために一般化します。同時に、エピソード間で因果関係のあるトランスフォーマーをトレーニングできるように、エピソードは十分に短くする必要があります。

強化学習のもう一つの革命! DeepMind が提案する「アルゴリズム蒸留」: 探索可能な事前トレーニング済み強化学習 Transformer

Adversarial Bandit、Dark Room、Dark Key-to-Door、DMLab Watermaze の 4 つの環境の実験結果からわかるように、十分な大きさのコンテキストを備えた因果的トランスフォーマーを使用した模倣勾配ベースの RL アルゴリズムを通じて、AD はコンテキスト内での新しいタスクの学習を完全に強化できます。

強化学習のもう一つの革命! DeepMind が提案する「アルゴリズム蒸留」: 探索可能な事前トレーニング済み強化学習 Transformer

AD は、コンテキスト内の探索、一時的なクレジットの割り当て、一般化を実行できます。AD 学習のアルゴリズムは、Transformer トレーニングのソースよりも優れています。データアルゴリズムによりデータ効率が向上します。

PPT 説明

論文の理解を容易にするために、論文著者の 1 人である Michael Laskin が Twitter で PPT 説明を公開しました。

強化学習のもう一つの革命! DeepMind が提案する「アルゴリズム蒸留」: 探索可能な事前トレーニング済み強化学習 Transformer

# アルゴリズム蒸留の実験では、Transformer が重みの更新、プロンプト、微調整を行わずに、試行錯誤を通じてモデルを独自に改善できることがわかりました。単一の Transformer は独自のデータを収集し、新しいタスクの報酬を最大化できます。

Transformer がコンテキスト内でどのように学習するかを示す成功したモデルは数多くありますが、Transformer がコンテキスト内での学習を強化することはまだ証明されていません。

新しいタスクに適応するには、開発者はプロンプトを手動で指定するか、モデルを調整する必要があります。

Transformer が強化学習に適応し、そのまま使用できるようになれば素晴らしいと思いませんか?

しかし、Decision Transformers や Gato はオフライン データからしか戦略を学習できず、実験を繰り返すことで自動的に改善することはできません。

強化学習のもう一つの革命! DeepMind が提案する「アルゴリズム蒸留」: 探索可能な事前トレーニング済み強化学習 Transformer

アルゴリズム蒸留 (AD) の事前トレーニング方法を使用して生成されたトランスフォーマーは、コンテキスト内で強化学習を実行できます。

強化学習のもう一つの革命! DeepMind が提案する「アルゴリズム蒸留」: 探索可能な事前トレーニング済み強化学習 Transformer

まず、強化学習アルゴリズムの複数のコピーをトレーニングして、さまざまなタスクを解決し、学習履歴を保存します。

強化学習のもう一つの革命! DeepMind が提案する「アルゴリズム蒸留」: 探索可能な事前トレーニング済み強化学習 Transformer

#学習履歴データセットが収集されると、以前の学習履歴アクションを予測するように Transformer をトレーニングできます。

ポリシーは歴史的に改善されてきたため、アクションを正確に予測することで、Transformer はポリシーの改善をモデル化する必要があります。

強化学習のもう一つの革命! DeepMind が提案する「アルゴリズム蒸留」: 探索可能な事前トレーニング済み強化学習 Transformer

プロセス全体はとてもシンプルです。Transformer はアクションを模倣することによってのみトレーニングされます。一般的な強化学習モデルのような Q 値はありません。操作-アクション-報酬シーケンスには、DT のような戻り条件もありません。

コンテキストでは、強化学習には追加のオーバーヘッドはなく、AD が新しいタスクの報酬を最大化できるかどうかを観察することによってモデルが評価されます。

Transformer がコンテキスト内で利益を探索、活用し、最大化している間、その重みは凍結されます。

一方、Expert Distillation (Gato に最も似ています) では、収益を探索したり最大化したりすることはできません。

強化学習のもう一つの革命! DeepMind が提案する「アルゴリズム蒸留」: 探索可能な事前トレーニング済み強化学習 Transformer

AD は任意の RL アルゴリズムを抽出できます。研究者は UCB と DQNA2C を試しました。興味深い発見は、コンテキストに応じた RL アルゴリズム学習では、AD の方がデータ効率が高いということです。 。

強化学習のもう一つの革命! DeepMind が提案する「アルゴリズム蒸留」: 探索可能な事前トレーニング済み強化学習 Transformer

ユーザーはプロンプトや次善のデモを入力することもでき、モデルは最適な解決策が得られるまで自動的に戦略を改善します。

ただし、エキスパート蒸留 ED は次善のデモ パフォーマンスしか維持できません。

強化学習のもう一つの革命! DeepMind が提案する「アルゴリズム蒸留」: 探索可能な事前トレーニング済み強化学習 Transformer

コンテキスト RL は、トランスフォーマーのコンテキストが十分に長く、複数のエピソードにまたがる場合にのみ表示されます。

AD には、効果的なモデルの改善と識別タスクを実行するのに十分な長い履歴が必要です。

強化学習のもう一つの革命! DeepMind が提案する「アルゴリズム蒸留」: 探索可能な事前トレーニング済み強化学習 Transformer

実験を通じて、研究者たちは次の結論に達しました:

  • 変圧器は次のとおりです。コンテキストで使用
  • AD を使用したコンテキスト RL アルゴリズムは、勾配ベースのソース RL アルゴリズムより効率的です
  • AD で RL を実行すると、準最適なポリシー
  • インコンテキスト強化学習はロングコンテキスト模倣学習から生じる

以上が強化学習のもう一つの革命! DeepMind が提案する「アルゴリズム蒸留」: 探索可能な事前トレーニング済み強化学習 Transformerの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

オープンソース!ゾーイデプスを超えて! DepthFM: 高速かつ正確な単眼深度推定! オープンソース!ゾーイデプスを超えて! DepthFM: 高速かつ正確な単眼深度推定! Apr 03, 2024 pm 12:04 PM

0.この記事は何をするのですか?私たちは、多用途かつ高速な最先端の生成単眼深度推定モデルである DepthFM を提案します。従来の深度推定タスクに加えて、DepthFM は深度修復などの下流タスクでも最先端の機能を実証します。 DepthFM は効率的で、いくつかの推論ステップ内で深度マップを合成できます。この作品について一緒に読みましょう〜 1. 論文情報タイトル: DepthFM: FastMonocularDepthEstimationwithFlowMatching 著者: MingGui、JohannesS.Fischer、UlrichPrestel、PingchuanMa、Dmytr

エンコーダ/デコーダ アーキテクチャを放棄し、より効果的なエッジ検出に拡散モデルを使用する 国立防衛工科大学は DiffusionEdge を提案しました エンコーダ/デコーダ アーキテクチャを放棄し、より効果的なエッジ検出に拡散モデルを使用する 国立防衛工科大学は DiffusionEdge を提案しました Feb 07, 2024 pm 10:12 PM

現在のディープ エッジ検出ネットワークは通常、エンコーダ/デコーダ アーキテクチャを採用しています。このアーキテクチャには、マルチレベルの特徴をより適切に抽出するためのアップ サンプリング モジュールとダウン サンプリング モジュールが含まれています。ただし、この構造では、ネットワークが正確かつ詳細なエッジ検出結果を出力することが制限されます。この問題に対して、AAAI2024 に関する論文は新しい解決策を提供しています。論文のタイトル: DiffusionEdge:DiffusionProbabilisticModelforCrispEdgeDetection 著者: Ye Yunfan (国立国防技術大学)、Xu Kai (国立国防技術大学)、Huang Yuxing (国立国防技術大学)、Yi Renjiao (国立国防技術大学)、Cai Zhiping (防衛工科大学) 論文リンク:https://ar

Tongyi Qianwen が再びオープンソースになり、Qwen1.5 では 6 つのボリューム モデルが提供され、そのパフォーマンスは GPT3.5 を超えます Tongyi Qianwen が再びオープンソースになり、Qwen1.5 では 6 つのボリューム モデルが提供され、そのパフォーマンスは GPT3.5 を超えます Feb 07, 2024 pm 10:15 PM

春節に合わせて、Tongyi Qianwen Model (Qwen) のバージョン 1.5 がオンラインになりました。今朝、新しいバージョンのニュースが AI コミュニティの注目を集めました。大型モデルの新バージョンには、0.5B、1.8B、4B、7B、14B、72Bの6つのモデルサイズが含まれています。その中でも最強バージョンの性能はGPT3.5やMistral-Mediumを上回ります。このバージョンには Base モデルと Chat モデルが含まれており、多言語サポートを提供します。アリババの同義前文チームは、関連技術が同義前文公式ウェブサイトと同義前文アプリでもリリースされたと述べた。さらに、本日の Qwen 1.5 リリースには、32K のコンテキスト長のサポート、Base+Chat モデルのチェックポイントのオープン、および 32K のコンテキスト長のサポートなどのハイライトもあります。

大規模なモデルもスライスでき、Microsoft SliceGPT により LLAMA-2 の計算効率が大幅に向上します。 大規模なモデルもスライスでき、Microsoft SliceGPT により LLAMA-2 の計算効率が大幅に向上します。 Jan 31, 2024 am 11:39 AM

大規模言語モデル (LLM) には通常、数十億のパラメーターがあり、数兆のトークンでトレーニングされます。ただし、このようなモデルのトレーニングとデプロイには非常にコストがかかります。計算要件を軽減するために、さまざまなモデル圧縮技術がよく使用されます。これらのモデル圧縮技術は一般に、蒸留、テンソル分解 (低ランク因数分解を含む)、枝刈り、および量子化の 4 つのカテゴリに分類できます。プルーニング手法は以前から存在していましたが、多くはパフォーマンスを維持するためにプルーニング後にリカバリ微調整 (RFT) を必要とするため、プロセス全体のコストが高くつき、拡張が困難になります。チューリッヒ工科大学とマイクロソフトの研究者は、この問題に対する SliceGPT と呼ばれる解決策を提案しました。この方法の中心となるアイデアは、重み行列の行と列を削除することでネットワークの埋め込みを減らすことです。

こんにちは、電気アトラスです!ボストン・ダイナミクスのロボットが復活、180度の奇妙な動きにマスク氏も恐怖 こんにちは、電気アトラスです!ボストン・ダイナミクスのロボットが復活、180度の奇妙な動きにマスク氏も恐怖 Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas は正式に電動ロボットの時代に突入します!昨日、油圧式アトラスが歴史の舞台から「涙ながらに」撤退したばかりですが、今日、ボストン・ダイナミクスは電動式アトラスが稼働することを発表しました。ボストン・ダイナミクス社は商用人型ロボットの分野でテスラ社と競争する決意を持っているようだ。新しいビデオが公開されてから、わずか 10 時間ですでに 100 万人以上が視聴しました。古い人が去り、新しい役割が現れるのは歴史的な必然です。今年が人型ロボットの爆発的な年であることは間違いありません。ネットユーザーは「ロボットの進歩により、今年の開会式は人間のように見え、人間よりもはるかに自由度が高い。しかし、これは本当にホラー映画ではないのか?」とコメントした。ビデオの冒頭では、アトラスは仰向けに見えるように地面に静かに横たわっています。次に続くのは驚くべきことです

Gemini Pro に追いつき、推論機能と OCR 機能を向上させた LLaVA-1.6 は強力すぎます Gemini Pro に追いつき、推論機能と OCR 機能を向上させた LLaVA-1.6 は強力すぎます Feb 01, 2024 pm 04:51 PM

昨年 4 月、ウィスコンシン大学マディソン校、マイクロソフト リサーチ、コロンビア大学の研究者が共同で LLaVA (Large Language and Vision Assistant) をリリースしました。 LLaVA は小規模なマルチモーダル命令データセットでのみトレーニングされていますが、一部のサンプルでは GPT-4 と非常によく似た推論結果を示します。その後 10 月に、オリジナルの LLaVA に簡単な変更を加えて 11 のベンチマークの SOTA を更新した LLaVA-1.5 をリリースしました。このアップグレードの結果は非常に刺激的で、マルチモーダル AI アシスタントの分野に新たなブレークスルーをもたらします。研究チームは、推論、OCR、および

超知性の生命力が覚醒する!しかし、自己更新 AI の登場により、母親はデータのボトルネックを心配する必要がなくなりました。 超知性の生命力が覚醒する!しかし、自己更新 AI の登場により、母親はデータのボトルネックを心配する必要がなくなりました。 Apr 29, 2024 pm 06:55 PM

世界は狂ったように大きなモデルを構築していますが、インターネット上のデータだけではまったく不十分です。このトレーニング モデルは「ハンガー ゲーム」のようであり、世界中の AI 研究者は、データを貪欲に食べる人たちにどのように餌を与えるかを心配しています。この問題は、マルチモーダル タスクで特に顕著です。何もできなかった当時、中国人民大学学部のスタートアップチームは、独自の新しいモデルを使用して、中国で初めて「モデル生成データフィード自体」を実現しました。さらに、これは理解側と生成側の 2 つの側面からのアプローチであり、両方の側で高品質のマルチモーダルな新しいデータを生成し、モデル自体にデータのフィードバックを提供できます。モデルとは何ですか? Awaker 1.0 は、中関村フォーラムに登場したばかりの大型マルチモーダル モデルです。チームは誰ですか?ソフォンエンジン。人民大学ヒルハウス人工知能大学院の博士課程学生、ガオ・イージャオ氏によって設立されました。

Kuaishou バージョンの Sora「Ke Ling」がテスト用に公開されています。120 秒以上のビデオを生成し、物理学をより深く理解し、複雑な動きを正確にモデル化できます。 Kuaishou バージョンの Sora「Ke Ling」がテスト用に公開されています。120 秒以上のビデオを生成し、物理学をより深く理解し、複雑な動きを正確にモデル化できます。 Jun 11, 2024 am 09:51 AM

何?ズートピアは国産AIによって実現するのか?ビデオとともに公開されたのは、「Keling」と呼ばれる新しい大規模な国産ビデオ生成モデルです。 Sora も同様の技術的ルートを使用し、自社開発の技術革新を多数組み合わせて、大きく合理的な動きをするだけでなく、物理世界の特性をシミュレートし、強力な概念的結合能力と想像力を備えたビデオを制作します。データによると、Keling は、最大 1080p の解像度で 30fps で最大 2 分の超長時間ビデオの生成をサポートし、複数のアスペクト比をサポートします。もう 1 つの重要な点は、Keling は研究所が公開したデモやビデオ結果のデモンストレーションではなく、ショートビデオ分野のリーダーである Kuaishou が立ち上げた製品レベルのアプリケーションであるということです。さらに、主な焦点は実用的であり、白紙小切手を書かず、リリースされたらすぐにオンラインに移行することです。Ke Ling の大型モデルは Kuaiying でリリースされました。

See all articles