ホームページ テクノロジー周辺機器 AI 単著論文、Google は密なフィードフォワードと疎な MoE を超える数百万の専門家の混合を提案

単著論文、Google は密なフィードフォワードと疎な MoE を超える数百万の専門家の混合を提案

Jul 17, 2024 pm 02:34 PM
プロジェクト エキスパート検索

計算効率を維持しながら、Transformer をさらに拡張する可能性を解き放ちます。標準の Transformer アーキテクチャの


フィードフォワード (FFW) 層では、隠れ層の幅が増加するにつれて、計算コストとアクティベーション メモリが直線的に増加します。大規模言語モデル (LLM) のサイズが増大し続けるにつれて、モデル サイズを計算コストから分離するスパース混合エキスパート (MoE) アーキテクチャがこの問題を解決する実現可能な方法になりました。多くの新しい MoE モデルは、同じサイズでより優れたパフォーマンスとより強力なパフォーマンスを実現できます。

最近発見された、きめの細かい MoE 拡張の法則は、より高い粒度がパフォーマンスの向上につながることを示しています。ただし、既存の MoE モデルは、計算と最適化の課題により、少数の専門家に限定されています。

今週火曜日、Google DeepMind の新しい研究では、プロダクト キー テクノロジーを活用して 100 万人のマイクロエキスパートからのスパース検索を実行する、パラメーター効率の良いエキスパート検索メカニズムが導入されています

単著論文、Google は密なフィードフォワードと疎な MoE を超える数百万の専門家の混合を提案

リンク: https://arxiv.org/abs/2407.04153

このアプローチは、学習されたインデックス構造を通じて多数の小さなエキスパートを効率的に連結することにより、パラメーター数から計算コストを切り離そうとします。ルーティング 。高密度 FFW、粗粒 MoE、プロダクト キー メモリ (PKM) レイヤーと比較して優れた効率を示します。

この作業では、プロダクト キーの取得を使用して多数のエキスパートに効率的にルーティングし、計算コストをパラメータの量から分離する、Parameter Efficient Expert Retrieval (PEER) アーキテクチャ (パラメータ効率的なエキスパート取得) を導入します。この設計は、実験で優れた計算パフォーマンス レベルを実証し、ベース モデルを拡張するための高密度 FFW レイヤーの競争力のある代替手段として位置付けられています。この研究の主な貢献は次のとおりです:

極端な環境省設定の調査: これまでの環境省研究では数人の大規模な専門家に焦点が当てられていたのとは異なり、この研究では多数の小規模な専門家の未解明な状況が調査されています。

ルーティングのための学習されたインデックス構造: 学習されたインデックス構造が 100 万人を超える専門家に効率的にルーティングできることを初めて実証しました。

新しいレイヤー設計: プロダクト キー ルーティングと単一ニューロン エキスパートを組み合わせて、大幅な計算オーバーヘッドを発生させずにレイヤー容量を拡張する PEER レイヤーを導入します。経験的な結果は、高密度 FFW、粗粒 MoE、およびプロダクト キー メモリ (PKM) レイヤーと比較して効率が高いことを示しています。

包括的なアブレーション研究: PEER のさまざまな設計選択 (エキスパートの数、アクティビティ パラメーター、ヘッドの数、クエリのバッチ正規化など) が言語モデリング タスクに及ぼす影響を研究します。

方法の紹介

このセクションでは、研究者が、ルーティングでプロダクト キーを使用するハイブリッド エキスパート アーキテクチャであるパラメトリック効率的エキスパート検索 (PEER) レイヤーと単一ニューロン MLP を専門家。以下の図 2 は、PEER 層内の計算プロセスを示しています。

単著論文、Google は密なフィードフォワードと疎な MoE を超える数百万の専門家の混合を提案

ピアレイヤーの概要。正式には、PEER 層は関数 f : R^n → R^m であり、次の 3 つの部分で構成されます。N 個の専門家のプール E := {e_i}^N_i=1、ここで各専門家 e_i : R^n → R ^m は f と同じ署名を共有し、対応する N 個のプロダクト キー K := {k_i}^N_i=1 ⊂ R^d とクエリ ネットワーク q : R^n → R ^d をマッピングします。 x ∈ R^n をクエリ ベクトル q (x) に変換します。

T_k を上位 k の演算子 を表すものとします。入力 x が与えられると、最初に、対応するプロダクト キーがクエリ q (x) との内積が最も大きい k エキスパートのサブセットを取得します。

単著論文、Google は密なフィードフォワードと疎な MoE を超える数百万の専門家の混合を提案

次に、上位 k 人のエキスパートのクエリ キーの内積に非線形アクティベーション (ソフトマックスやシグモイドなど) を適用して、ルーティング スコアを取得します。

単著論文、Google は密なフィードフォワードと疎な MoE を超える数百万の専門家の混合を提案

最後に、ルーティングスコアによって重み付けされたエキスパートの出力を線形結合することによって出力が計算されます。

単著論文、Google は密なフィードフォワードと疎な MoE を超える数百万の専門家の混合を提案

プロダクト キーの取得。研究者は多数の専門家 (N ≥ 10^6) を利用するつもりであるため、式 1 の上位 k 個のインデックスを単純に計算するだけでは非常にコストがかかる可能性があるため、プロダクト キーの取得手法が適用されます。 N 個の独立した d 次元ベクトルをキー k_i として使用する代わりに、2 つの独立した d/2 次元サブキー セット (つまり、C、C ' ⊂ R d/2) からのベクトルを連結することによってそれらを作成します。効率的な専門家と複数のヘッドによる検索
。他の MoE アーキテクチャとは異なり、これらのアーキテクチャは通常、各エキスパートの隠れ層を他の FFW 層と同じサイズに設定します。 PEER では、各エキスパート e_i はシングルトン MLP です。つまり、単一のニューロンを持つ隠れ層が 1 つだけあります:

単著論文、Google は密なフィードフォワードと疎な MoE を超える数百万の専門家の混合を提案

研究者らは個々のエキスパートのサイズを変更しませんでしたが、使用されたマルチヘッド検索は次のとおりです。 PEER 層の表現能力を調整するために使用されます。これは、トランスフォーマーのマルチヘッド アテンション メカニズムや PKM のマルチヘッド メモリに似ています。

単著論文、Google は密なフィードフォワードと疎な MoE を超える数百万の専門家の混合を提案

具体的には、h 個の独立したクエリ ネットワークを使用し、各ネットワークが独自のクエリを計算し、k 個の専門家の別個のセットを取得します。ただし、異なるヘッドは同じプロダクト キーのセットを持つ同じエキスパート プールを共有します。これらの頭の出力は次のように簡単に要約されます:

なぜ多数の小規模な専門家が必要なのですか
?特定の MoE レイヤは、パラメータの総数 P、トークンごとのアクティブ パラメータの数 P_active、および単一エキスパートのサイズ P_expert の 3 つのハイパーパラメータによって特徴付けることができます。 Krajewski et al. (2024) は、MoE モデルのスケーリング則が次の形式であることを示しました:

単著論文、Google は密なフィードフォワードと疎な MoE を超える数百万の専門家の混合を提案

PEER の場合、研究者は d_expert = 1 を設定することで可能な限り最小のエキスパート サイズを使用し、活性化されたニューロンの数は検索ヘッド この数値に、ヘッドごとに取得されるエキスパートの数を掛けます: d_active = hk。したがって、PEER の粒度は常に G = P_active/P_expert = d_active/d_expert = hk となります。

単著論文、Google は密なフィードフォワードと疎な MoE を超える数百万の専門家の混合を提案

実験結果

単著論文、Google は密なフィードフォワードと疎な MoE を超える数百万の専門家の混合を提案

まず、言語モデリングデータセットの評価結果を見てみましょう。

isoFLOP 曲線に基づいて各手法の計算上最適なモデルを決定した後、研究者らは、次の一般的な言語モデリング データセットでこれらの事前トレーニングされたモデルのパフォーマンスを評価しました:

キュレーション コーパス

    Lambada
  • Pile
  • Wikitext
  • 事前学習データセットC4
  • 以下の表1に評価結果を示します。トレーニング中に使用された FLOP バジェットに基づいてモデルをグループ化しました。見てわかるように、これらの言語モデリング データセットでは、PEER の混乱度が最も低くなります。

アブレーション実験では、研究者は専門家の総数を変更しました。以下の図 1 の isoFLOP 曲線に示されているモデルにはすべて、100 万人 (1024^2) を超える専門家がいます。

単著論文、Google は密なフィードフォワードと疎な MoE を超える数百万の専門家の混合を提案

研究者は、isoFLOP の最適な位置を持つモデルを選択し、アクティブなエキスパートの数を変更せずに、PEER 層のエキスパートの数 (N = 128^2、256^2、512^2、1024^2) を変更しました。 (h = 8、k = 16)。結果を以下の図 3(a) に示します。

isoFLOP 曲線は、中央ブロックの FFW 層を PEER 層に置き換えることなく、1024^2 のエキスパートを含む PEER モデルと対応する密なバックボーンの間を補間していることがわかります。これは、エキスパートの数を増やすだけでモデルのパフォーマンスを向上できることを示しています。

同時に、研究者らはアクティブな専門家の数を変更しました。彼らは、専門家の総数を一定(N = 1024^2)に保ちながら、アクティブな専門家の数を体系的に変化させました(hk = 32、64、128、256、512)。与えられた hk に対して、研究者は h と k を共同で変更して、最適な組み合わせを決定します。下の図 3 (b) は、ヘッド数 (h) に対する isoFLOP 曲線をプロットしています。

単著論文、Google は密なフィードフォワードと疎な MoE を超える数百万の専門家の混合を提案

以下の表 2 は、BN を使用した場合と使用しない場合の、さまざまな数のエキスパートに対するエキスパートの使用量と不均一性を示しています。 1M エキスパートでもエキスパート利用率は 100% に近く、BN を使用することでエキスパート利用率のバランスが取れ、混乱レベルが低くなっていることがわかります。これらの調査結果は、多数の専門家を活用する際の PEER モデルの有効性を示しています。

単著論文、Google は密なフィードフォワードと疎な MoE を超える数百万の専門家の混合を提案

研究者らはまた、BN を使用した場合と使用しない場合の isoFLOP 曲線を比較しました。以下の図 4 は、BN を使用した PEER モデルが一般に低いパープレキシティを達成できることを示しています。違いは顕著ではありませんが、isoFLOP 最適領域付近で最も顕著です。

単著論文、Google は密なフィードフォワードと疎な MoE を超える数百万の専門家の混合を提案

著者紹介

PEER 研究の著者は Xu He (Owen) のみです。彼は Google DeepMind の研究科学者であり、オランダのフローニンゲン大学で博士号を取得しています。 2017年に。

単著論文、Google は密なフィードフォワードと疎な MoE を超える数百万の専門家の混合を提案

以上が単著論文、Google は密なフィードフォワードと疎な MoE を超える数百万の専門家の混合を提案の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

ControlNet の作者がまたヒット作を出しました!写真から絵画を生成し、2 日間で 1.4,000 個のスターを獲得する全プロセス ControlNet の作者がまたヒット作を出しました!写真から絵画を生成し、2 日間で 1.4,000 個のスターを獲得する全プロセス Jul 17, 2024 am 01:56 AM

これも Tusheng のビデオですが、PaintsUndo は別の道を歩んでいます。 ControlNet 作者 LvminZhang が再び生き始めました!今回は絵画の分野を目指します。新しいプロジェクト PaintsUndo は、開始されて間もなく 1.4kstar を獲得しました (まだ異常なほど上昇しています)。プロジェクトアドレス: https://github.com/lllyasviel/Paints-UNDO このプロジェクトを通じて、ユーザーが静止画像を入力すると、PaintsUndo が線画から完成品までのペイントプロセス全体のビデオを自動的に生成するのに役立ちます。 。描画プロセス中の線の変化は驚くべきもので、最終的なビデオ結果は元の画像と非常によく似ています。完成した描画を見てみましょう。

オープンソース AI ソフトウェア エンジニアのリストのトップに立つ UIUC のエージェントレス ソリューションは、SWE ベンチの実際のプログラミングの問題を簡単に解決します オープンソース AI ソフトウェア エンジニアのリストのトップに立つ UIUC のエージェントレス ソリューションは、SWE ベンチの実際のプログラミングの問題を簡単に解決します Jul 17, 2024 pm 10:02 PM

AIxivコラムは、当サイトが学術的・技術的な内容を掲載するコラムです。過去数年間で、このサイトの AIxiv コラムには 2,000 件を超えるレポートが寄せられ、世界中の主要な大学や企業のトップ研究室がカバーされ、学術交流と普及を効果的に促進しています。共有したい優れた作品がある場合は、お気軽に寄稿するか、報告のために当社までご連絡ください。提出電子メール: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com この論文の著者は全員、イリノイ大学アーバナ シャンペーン校 (UIUC) の Zhang Lingming 教師のチームのメンバーです。博士課程4年、研究者

RLHF から DPO、TDPO に至るまで、大規模なモデル アライメント アルゴリズムはすでに「トークンレベル」になっています RLHF から DPO、TDPO に至るまで、大規模なモデル アライメント アルゴリズムはすでに「トークンレベル」になっています Jun 24, 2024 pm 03:04 PM

AIxivコラムは、当サイトが学術的・技術的な内容を掲載するコラムです。過去数年間で、このサイトの AIxiv コラムには 2,000 件を超えるレポートが寄せられ、世界中の主要な大学や企業のトップ研究室がカバーされ、学術交流と普及を効果的に促進しています。共有したい優れた作品がある場合は、お気軽に寄稿するか、報告のために当社までご連絡ください。提出メール: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 人工知能の開発プロセスにおいて、大規模言語モデル (LLM) の制御とガイダンスは常に中心的な課題の 1 つであり、これらのモデルが両方とも確実に機能することを目指しています。強力かつ安全に人類社会に貢献します。初期の取り組みは人間のフィードバックによる強化学習手法に焦点を当てていました (RL

arXiv 論文は「弾幕」として投稿可能、スタンフォード alphaXiv ディスカッション プラットフォームはオンライン、LeCun は気に入っています arXiv 論文は「弾幕」として投稿可能、スタンフォード alphaXiv ディスカッション プラットフォームはオンライン、LeCun は気に入っています Aug 01, 2024 pm 05:18 PM

乾杯!紙面でのディスカッションが言葉だけになると、どんな感じになるでしょうか?最近、スタンフォード大学の学生が、arXiv 論文のオープン ディスカッション フォーラムである alphaXiv を作成しました。このフォーラムでは、arXiv 論文に直接質問やコメントを投稿できます。 Web サイトのリンク: https://alphaxiv.org/ 実際、URL の arXiv を alphaXiv に変更するだけで、alphaXiv フォーラムの対応する論文を直接開くことができます。この Web サイトにアクセスする必要はありません。その中の段落を正確に見つけることができます。論文、文: 右側のディスカッション エリアでは、ユーザーは論文のアイデアや詳細について著者に尋ねる質問を投稿できます。たとえば、次のような論文の内容についてコメントすることもできます。

リーマン予想の大きな進歩!陶哲軒氏はMITとオックスフォードの新しい論文を強く推薦し、37歳のフィールズ賞受賞者も参加した リーマン予想の大きな進歩!陶哲軒氏はMITとオックスフォードの新しい論文を強く推薦し、37歳のフィールズ賞受賞者も参加した Aug 05, 2024 pm 03:32 PM

最近、2000年代の7大問題の一つとして知られるリーマン予想が新たなブレークスルーを達成した。リーマン予想は、数学における非常に重要な未解決の問題であり、素数の分布の正確な性質に関連しています (素数とは、1 とそれ自身でのみ割り切れる数であり、整数論において基本的な役割を果たします)。今日の数学文献には、リーマン予想 (またはその一般化された形式) の確立に基づいた 1,000 を超える数学的命題があります。言い換えれば、リーマン予想とその一般化された形式が証明されれば、これらの 1,000 を超える命題が定理として確立され、数学の分野に重大な影響を与えることになります。これらの命題の一部も有効性を失います。 MIT数学教授ラリー・ガスとオックスフォード大学から新たな進歩がもたらされる

OpenAI Super Alignment チームの遺作: 2 つの大きなモデルがゲームをプレイし、出力がより理解しやすくなる OpenAI Super Alignment チームの遺作: 2 つの大きなモデルがゲームをプレイし、出力がより理解しやすくなる Jul 19, 2024 am 01:29 AM

AIモデルによって与えられた答えがまったく理解できない場合、あなたはそれをあえて使用しますか?機械学習システムがより重要な分野で使用されるにつれて、なぜその出力を信頼できるのか、またどのような場合に信頼してはいけないのかを実証することがますます重要になっています。複雑なシステムの出力に対する信頼を得る方法の 1 つは、人間または他の信頼できるシステムが読み取れる、つまり、考えられるエラーが発生する可能性がある点まで完全に理解できる、その出力の解釈を生成することをシステムに要求することです。見つかった。たとえば、司法制度に対する信頼を築くために、裁判所に対し、決定を説明し裏付ける明確で読みやすい書面による意見を提供することを求めています。大規模な言語モデルの場合も、同様のアプローチを採用できます。ただし、このアプローチを採用する場合は、言語モデルが

LLM は時系列予測にはあまり適していません。推論機能も使用しません。 LLM は時系列予測にはあまり適していません。推論機能も使用しません。 Jul 15, 2024 pm 03:59 PM

言語モデルは本当に時系列予測に使用できるのでしょうか?ベタリッジの見出しの法則 (疑問符で終わるニュース見出しは「いいえ」と答えることができます) によれば、答えは「いいえ」であるはずです。このような強力な LLM は時系列データを適切に処理できないという事実は真実のようです。時系列、つまり時系列とは、その名の通り、時間順に並べられた一連のデータ点のことを指します。時系列分析は、病気の蔓延予測、小売分析、ヘルスケア、金融などの多くの分野で重要です。時系列分析の分野では、多くの研究者が最近、大規模言語モデル (LLM) を使用して時系列の異常を分類、予測、検出する方法を研究しています。これらの論文では、テキスト内の逐次依存関係の処理に優れた言語モデルは時系列にも一般化できると想定しています。

最初の Mamba ベースの MLLM が登場しました!モデルの重み、トレーニング コードなどはすべてオープンソースです 最初の Mamba ベースの MLLM が登場しました!モデルの重み、トレーニング コードなどはすべてオープンソースです Jul 17, 2024 am 02:46 AM

AIxivコラムは、当サイトが学術的・技術的な内容を掲載するコラムです。過去数年間で、このサイトの AIxiv コラムには 2,000 件を超えるレポートが寄せられ、世界中の主要な大学や企業のトップ研究室がカバーされ、学術交流と普及を効果的に促進しています。共有したい優れた作品がある場合は、お気軽に寄稿するか、報告のために当社までご連絡ください。提出電子メール: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com。はじめに 近年、さまざまな分野でマルチモーダル大規模言語モデル (MLLM) の適用が目覚ましい成功を収めています。ただし、多くの下流タスクの基本モデルとして、現在の MLLM はよく知られた Transformer ネットワークで構成されています。

See all articles