ホームページ テクノロジー周辺機器 AI 量は力だ! Tencent が明らかに: エージェントの数が多いほど、大規模な言語モデルの効果が高まる

量は力だ! Tencent が明らかに: エージェントの数が多いほど、大規模な言語モデルの効果が高まる

Feb 29, 2024 pm 03:55 PM
テンセント プロジェクト

Tencent の研究チームは、エージェントのスケーラビリティに関する研究を実施しました。彼らは、単純なサンプリング投票を通じて、インスタンス化されたエージェントの数に応じて大規模言語モデル (LLM) のパフォーマンスが向上することを発見しました。本研究では、この現象の普遍性をさまざまなシナリオで初めて検証し、他の複雑な手法と比較し、この現象の背後にある理由を探り、スケーリング効果をさらに発揮するための手法を提案しました。

量は力だ! Tencent が明らかに: エージェントの数が多いほど、大規模な言語モデルの効果が高まる

  • 論文のタイトル: 必要なのはエージェントの追加だけです

  • 論文のアドレス: https://arxiv .org/abs/2402.05120

  • コードアドレス: https://github.com/MoreAgentsIsAllYouNeed/More-Agents-Is-All-You-Need

この記事で、Tencent の研究者は次のことを発見しました: 単純なサンプリング投票方法を通じて、複雑なサポートがなくても、インスタンス化されるエージェントの数が増加するにつれて大規模な言語モデルのパフォーマンスが向上し、スケーリング特性 (スケーラビリティ) が示される複数の LLM エージェントのコラボレーション フレームワークと迅速なエンジニアリング手法。さらに、この方法は既存の高度な方法とは直交しており、組み合わせるとタスクの難易度に関連する程度まで LLM をさらに強化できます。この論文は、生のエージェント (複雑なプロンプト エンジニアリングとコラボレーション フレームワークに依存しない LLM エージェントを指します) のスケーリング特性に関する最初の研究を行い、この発見の普遍性を検証するためにさまざまな LLM ベンチマークで包括的な実験を実施しました。その発生を促進する戦略。コードは現在オープンソースです。
量は力だ! Tencent が明らかに: エージェントの数が多いほど、大規模な言語モデルの効果が高まる
この複数のモデルは大規模モデルを上回りました

論文では、統合されたさまざまなモデルについて詳しく説明しましたLLM 自己統合、異種 LLM 統合、および複数の LLM エージェントのコラボレーション フレームワークに関する研究を含む、LLM 関連の研究。提案された方法と比較すると、この論文はより包括的な調査と分析を行っていることがわかります。
量は力だ! Tencent が明らかに: エージェントの数が多いほど、大規模な言語モデルの効果が高まる
インスタンス化されたエージェントの数が増加するにつれて、大規模な言語モデルのパフォーマンスがどのように向上するかを研究するため。この論文では単純なサンプリングと投票の方法を使用しています (著者は単純 (st) という用語を使用しています。これは、この方法が最も単純な方法の 1 つである可能性があると考えていることを示しています)。特に、この方法は既存の複雑な方法と直交的に組み合わせることができます。これは 2 つの段階に分けることができます:

  • タスク クエリを単一の LLM または複数の LLM エージェントのコラボレーション フレームワークに入力して、複数の出力を生成します。
  • 最終結果は多数決によって決定されます
量は力だ! Tencent が明らかに: エージェントの数が多いほど、大規模な言語モデルの効果が高まる
この論文では、Llama2 および GPT シリーズから異なるスケールが選択されています。モデルは、推論や生成などの複数のドメインをカバーするタスク データセットで評価されます。実験結果は、すべてのタスクとさまざまなタイプとサイズの LLM において、インスタンス化されたエージェントの数に応じて LLM のパフォーマンスが向上することが判明したことを示しています。

量は力だ! Tencent が明らかに: エージェントの数が多いほど、大規模な言語モデルの効果が高まる

たとえば、GSM8K タスクでは 12% ~ 24%、MATH タスクでは 6% ~ 10% の改善が見られます。興味深いことに、複数の小規模 LLM の アンサンブルは、より大きな LLM のパフォーマンスに匹敵するか、それを上回る可能性さえあります。 たとえば、複数の Llama2-13B のアンサンブルは、GSM8K で 59% の精度を達成し、単一の Llama2-70B の 54% の精度を上回りました。

量は力だ! Tencent が明らかに: エージェントの数が多いほど、大規模な言語モデルの効果が高まる

さらに、著者は と他のメソッドとの互換性も調査しました。 これらの方法は実装方法が異なりますが、組み合わせて使用​​すると、パフォーマンスをさらに向上させることができます。また、これは、インスタンス化されるエージェントの数が増えるほど、パフォーマンスが向上するという現象とも一致します。 実験結果は、ゲインが 1% から 27% の範囲であることを示しており、この単純な方法を他の方法と直交的に使用することで LLM のパフォーマンスをさらに向上できることを示しています。
量は力だ! Tencent が明らかに: エージェントの数が多いほど、大規模な言語モデルの効果が高まる
量は力だ! Tencent が明らかに: エージェントの数が多いほど、大規模な言語モデルの効果が高まる

# LLama13B

に基づく 量は力だ! Tencent が明らかに: エージェントの数が多いほど、大規模な言語モデルの効果が高まる

## LLama70B に基づく

量は力だ! Tencent が明らかに: エージェントの数が多いほど、大規模な言語モデルの効果が高まる

# ベースGPT-3.5-Turbo さらに、この論文では、

パフォーマンスの向上と問題の難易度の関係も分析しています。

#本質的難易度: タスクの固有の難易度が上がると、パフォーマンスの向上 (つまり、相対的なパフォーマンス)ゲイン)も増加しますが、難易度が一定レベルに達すると徐々にゲインが減少します。これは、タスクが複雑すぎる場合、モデルの推論能力が追いつかない可能性があり、その結果、パフォーマンス向上の限界効果が減少する可能性があることを示しています。
  • ステップ数: タスクを解決するために必要なステップ数が増加すると、パフォーマンスも向上します。これは、複数ステップのタスクでは、エージェントの数を増やすことでモデルが各ステップをより適切に処理できるようになり、それによってタスク解決のパフォーマンスが全体的に向上することを示しています。
  • 事前確率: 正解の事前確率が高いほど、パフォーマンスの向上が大きくなります。これは、正解が得られる可能性が高い場合、エージェントの数を増やすと大幅なパフォーマンスの向上につながる可能性が高いことを意味します。
量は力だ! Tencent が明らかに: エージェントの数が多いほど、大規模な言語モデルの効果が高まる#ノード: ステップ、破線: 考えられる代替ステップ。ノードの深さ: ステップ数、色の強度: 固有の難易度のレベル。この図は、タスクの複雑さがこれらの側面に沿ってどのように測定されるかを読者が理解するのに役立ちます。
#これに基づいて、この論文では、この方法の有効性をさらに向上させるための 2 つの最適化戦略を提案します。

段階的なサンプリングと投票: この方法では、タスクを複数のステップに分割し、各ステップでサンプリングと投票を適用することで、累積エラーを減らし、全体的なパフォーマンスを向上させます。
  • 階層的サンプリングと投票: この手法は、確率の低いタスクを確率の高い複数のサブタスクに分解し、階層的に解決します。同時に使用できます。異なるモデルが使用されます。コストを削減するために、異なる確率でサブタスクを処理します。

  • 最後に、コストを削減するためのサンプリング段階の最適化や、LLM 幻覚の影響を軽減するための関連メカニズムの開発の継続など、将来の作業の方向性が提案されています。悪影響を排除し、これらの強力なモデルの展開が責任を持ち、有益であることを保証します。 量は力だ! Tencent が明らかに: エージェントの数が多いほど、大規模な言語モデルの効果が高まる

以上が量は力だ! Tencent が明らかに: エージェントの数が多いほど、大規模な言語モデルの効果が高まるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

ControlNet の作者がまたヒット作を出しました!写真から絵画を生成し、2 日間で 1.4,000 個のスターを獲得する全プロセス ControlNet の作者がまたヒット作を出しました!写真から絵画を生成し、2 日間で 1.4,000 個のスターを獲得する全プロセス Jul 17, 2024 am 01:56 AM

これも Tusheng のビデオですが、PaintsUndo は別の道を歩んでいます。 ControlNet 作者 LvminZhang が再び生き始めました!今回は絵画の分野を目指します。新しいプロジェクト PaintsUndo は、開始されて間もなく 1.4kstar を獲得しました (まだ異常なほど上昇しています)。プロジェクトアドレス: https://github.com/lllyasviel/Paints-UNDO このプロジェクトを通じて、ユーザーが静止画像を入力すると、PaintsUndo が線画から完成品までのペイントプロセス全体のビデオを自動的に生成するのに役立ちます。 。描画プロセス中の線の変化は驚くべきもので、最終的なビデオ結果は元の画像と非常によく似ています。完成した描画を見てみましょう。

オープンソース AI ソフトウェア エンジニアのリストのトップに立つ UIUC のエージェントレス ソリューションは、SWE ベンチの実際のプログラミングの問題を簡単に解決します オープンソース AI ソフトウェア エンジニアのリストのトップに立つ UIUC のエージェントレス ソリューションは、SWE ベンチの実際のプログラミングの問題を簡単に解決します Jul 17, 2024 pm 10:02 PM

AIxivコラムは、当サイトが学術的・技術的な内容を掲載するコラムです。過去数年間で、このサイトの AIxiv コラムには 2,000 件を超えるレポートが寄せられ、世界中の主要な大学や企業のトップ研究室がカバーされ、学術交流と普及を効果的に促進しています。共有したい優れた作品がある場合は、お気軽に寄稿するか、報告のために当社までご連絡ください。提出電子メール: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com この論文の著者は全員、イリノイ大学アーバナ シャンペーン校 (UIUC) の Zhang Lingming 教師のチームのメンバーです。博士課程4年、研究者

OpenAI Super Alignment チームの遺作: 2 つの大きなモデルがゲームをプレイし、出力がより理解しやすくなる OpenAI Super Alignment チームの遺作: 2 つの大きなモデルがゲームをプレイし、出力がより理解しやすくなる Jul 19, 2024 am 01:29 AM

AIモデルによって与えられた答えがまったく理解できない場合、あなたはそれをあえて使用しますか?機械学習システムがより重要な分野で使用されるにつれて、なぜその出力を信頼できるのか、またどのような場合に信頼してはいけないのかを実証することがますます重要になっています。複雑なシステムの出力に対する信頼を得る方法の 1 つは、人間または他の信頼できるシステムが読み取れる、つまり、考えられるエラーが発生する可能性がある点まで完全に理解できる、その出力の解釈を生成することをシステムに要求することです。見つかった。たとえば、司法制度に対する信頼を築くために、裁判所に対し、決定を説明し裏付ける明確で読みやすい書面による意見を提供することを求めています。大規模な言語モデルの場合も、同様のアプローチを採用できます。ただし、このアプローチを採用する場合は、言語モデルが

公理的トレーニングにより、LLM は因果推論を学習できます。6,700 万個のパラメータ モデルは、1 兆個のパラメータ レベル GPT-4 に匹敵します。 公理的トレーニングにより、LLM は因果推論を学習できます。6,700 万個のパラメータ モデルは、1 兆個のパラメータ レベル GPT-4 に匹敵します。 Jul 17, 2024 am 10:14 AM

LLM に因果連鎖を示すと、LLM は公理を学習します。 AI はすでに数学者や科学者の研究を支援しています。たとえば、有名な数学者のテレンス タオは、GPT などの AI ツールを活用した研究や探索の経験を繰り返し共有しています。 AI がこれらの分野で競争するには、強力で信頼性の高い因果推論能力が不可欠です。この記事で紹介する研究では、小さなグラフでの因果的推移性公理の実証でトレーニングされた Transformer モデルが、大きなグラフでの推移性公理に一般化できることがわかりました。言い換えれば、Transformer が単純な因果推論の実行を学習すると、より複雑な因果推論に使用できる可能性があります。チームが提案した公理的トレーニング フレームワークは、デモンストレーションのみで受動的データに基づいて因果推論を学習するための新しいパラダイムです。

arXiv 論文は「弾幕」として投稿可能、スタンフォード alphaXiv ディスカッション プラットフォームはオンライン、LeCun は気に入っています arXiv 論文は「弾幕」として投稿可能、スタンフォード alphaXiv ディスカッション プラットフォームはオンライン、LeCun は気に入っています Aug 01, 2024 pm 05:18 PM

乾杯!紙面でのディスカッションが言葉だけになると、どんな感じになるでしょうか?最近、スタンフォード大学の学生が、arXiv 論文のオープン ディスカッション フォーラムである alphaXiv を作成しました。このフォーラムでは、arXiv 論文に直接質問やコメントを投稿できます。 Web サイトのリンク: https://alphaxiv.org/ 実際、URL の arXiv を alphaXiv に変更するだけで、alphaXiv フォーラムの対応する論文を直接開くことができます。この Web サイトにアクセスする必要はありません。その中の段落を正確に見つけることができます。論文、文: 右側のディスカッション エリアでは、ユーザーは論文のアイデアや詳細について著者に尋ねる質問を投稿できます。たとえば、次のような論文の内容についてコメントすることもできます。

リーマン予想の大きな進歩!陶哲軒氏はMITとオックスフォードの新しい論文を強く推薦し、37歳のフィールズ賞受賞者も参加した リーマン予想の大きな進歩!陶哲軒氏はMITとオックスフォードの新しい論文を強く推薦し、37歳のフィールズ賞受賞者も参加した Aug 05, 2024 pm 03:32 PM

最近、2000年代の7大問題の一つとして知られるリーマン予想が新たなブレークスルーを達成した。リーマン予想は、数学における非常に重要な未解決の問題であり、素数の分布の正確な性質に関連しています (素数とは、1 とそれ自身でのみ割り切れる数であり、整数論において基本的な役割を果たします)。今日の数学文献には、リーマン予想 (またはその一般化された形式) の確立に基づいた 1,000 を超える数学的命題があります。言い換えれば、リーマン予想とその一般化された形式が証明されれば、これらの 1,000 を超える命題が定理として確立され、数学の分野に重大な影響を与えることになります。これらの命題の一部も有効性を失います。 MIT数学教授ラリー・ガスとオックスフォード大学から新たな進歩がもたらされる

無制限のビデオ生成、計画と意思決定、次のトークン予測とフルシーケンス拡散の拡散強制統合 無制限のビデオ生成、計画と意思決定、次のトークン予測とフルシーケンス拡散の拡散強制統合 Jul 23, 2024 pm 02:05 PM

現在、次のトークン予測パラダイムを使用した自己回帰大規模言語モデルが世界中で普及していると同時に、インターネット上の多数の合成画像やビデオがすでに拡散モデルの威力を示しています。最近、MITCSAIL の研究チーム (そのうちの 1 人は MIT の博士課程学生、Chen Boyuan です) は、全系列拡散モデルとネクスト トークン モデルの強力な機能を統合することに成功し、トレーニングおよびサンプリング パラダイムである拡散強制 (DF) を提案しました。 )。論文タイトル:DiffusionForcing:Next-tokenPredictionMeetsFull-SequenceDiffusion 論文アドレス:https:/

LLM は時系列予測にはあまり適していません。推論機能も使用しません。 LLM は時系列予測にはあまり適していません。推論機能も使用しません。 Jul 15, 2024 pm 03:59 PM

言語モデルは本当に時系列予測に使用できるのでしょうか?ベタリッジの見出しの法則 (疑問符で終わるニュース見出しは「いいえ」と答えることができます) によれば、答えは「いいえ」であるはずです。このような強力な LLM は時系列データを適切に処理できないという事実は真実のようです。時系列、つまり時系列とは、その名の通り、時間順に並べられた一連のデータ点のことを指します。時系列分析は、病気の蔓延予測、小売分析、ヘルスケア、金融などの多くの分野で重要です。時系列分析の分野では、多くの研究者が最近、大規模言語モデル (LLM) を使用して時系列の異常を分類、予測、検出する方法を研究しています。これらの論文では、テキスト内の逐次依存関係の処理に優れた言語モデルは時系列にも一般化できると想定しています。

See all articles