ホームページ テクノロジー周辺機器 AI 新しいタイトル: Meta による Transformer アーキテクチャの改善: 推論機能を強化する新しいアテンション メカニズム

新しいタイトル: Meta による Transformer アーキテクチャの改善: 推論機能を強化する新しいアテンション メカニズム

Nov 24, 2023 pm 02:53 PM
モデル 電車

大規模言語モデル (LLM) の能力は疑う余地のない事実ですが、それでも時々単純な間違いを犯し、推論能力が弱いことがわかります。

##たとえば、LLM は次のような場合があります。無関係な文脈や好み、入力プロンプトに固有の意見によって誤った判断をしてしまう。後者の状況では、モデルが入力と一貫性を保つ「お調子者」として知られる問題が発生します。この種の問題を軽減する方法はありますか?一部の学者は教師付きトレーニング データや強化学習戦略を追加することで問題を解決しようとしましたが、これらの方法では問題を根本的に解決することはできません

最近の研究で、メタ研究者は次のことを指摘しました。これは、Transformer モデル自体の構築方法、特にそのアテンション メカニズムに関する根本的な問題です。言い換えれば、ソフト アテンションは、ほとんどのコンテキスト (無関係な部分を含む) に確率を割り当て、繰り返されるトークンに過度に焦点を当てる傾向があります。

したがって、研究者らは、注意に対するまったく異なるアプローチを提案しました。 、LLM を自然言語推論器として使用して注意を実行します。具体的には、注目すべきコンテキストの生成を促す指示に従う LLM の機能を利用して、自分たちの推論を歪めない関連資料のみを含めるようにしました。研究者らは、このプロセスをシステム 2 アテンション (S2A) と呼び、基礎となるトランスフォーマーとその注意メカニズムを、人間のシステム 1 推論と同様の自動操作であるとみなしています。システム 1 はタスクに特別に焦点を当てており、システム 1 はエラーを起こす可能性が高く、システム 2 は激しい精神活動を割り当て、人間の仕事を引き継ぎます。したがって、このサブシステムは、研究者によって提案された S2A と同様の目標を持っており、追加の推論エンジン作業を通じて、トランスフォーマーのソフト アテンションの上記の失敗を軽減することを期待しています。 ##書き直す必要がある内容は次のとおりです: 論文リンク: https://arxiv.org/pdf/2311.11829.pdf

研究者の S2A の分類と動機メカニズムといくつかの具体的な実装について詳しく説明します。実験段階では、特に質問に干渉する意見が含まれている場合、S2A が標準的な注意ベースの LLM

よりも客観的で、主観的な偏見やお世辞が少ない LLM を生成できることが確認されました。改訂された TriviQA データセットでは、LLaMA-2-70B-chat と比較して、S2A は事実性を 62.8% から 80.3% に向上させました。干渉する入力感情を含む長形式パラメータを生成するタスクでは、S2A の客観性は 57.4% 向上し、本質的には挿入視点の影響を受けません。さらに、GSM-IC の無関係な文を含む数学的文章問題の場合、S2A は精度を 51.7% から 61.3% に向上させました。

新しいタイトル: Meta による Transformer アーキテクチャの改善: 推論機能を強化する新しいアテンション メカニズム

この研究は、Yann LeCun によって推奨されました。

システム 2 の注意

以下の図 1 は、擬似相関の例を示しています。最も強力な LLM であっても、コンテキストに無関係な文が含まれている場合、単純な事実に関する質問に対する回答が変更される可能性があります。これは、コンテキスト内に出現する単語によって誤った回答が生じる可能性が誤って増加するためです。

新しいタイトル: Meta による Transformer アーキテクチャの改善: 推論機能を強化する新しいアテンション メカニズム したがって、私たちはより深く理解され、より思慮深い注意メカニズムを研究する必要があります。これを下位レベルの注意メカニズムと区別するために、研究者らは S2A と呼ばれるシステムを提案しました。彼らは、LLM 自体を活用してこのアテンション メカニズムを構築する方法を検討し、特に無関係なテキストを削除してコンテキストの指示を書き換えることで LLM を調整する方法を検討しました。このアプローチにより、LLM は応答を生成する前に入力の関連部分について慎重に推論し、決定を下すことができます。コマンド調整 LLM を使用するもう 1 つの利点は、注意の焦点を制御できることです。これは人間が自分の注意を制御する方法と似ています。

S2A には 2 つのステップが含まれます:

  • コンテキスト x が与えられると、S2A は最初にコンテキスト x' を再生成し、それによって出力に悪影響を与えるコンテキストの無関係な部分を削除します。本稿では x ′ 〜 S2A (x) と表現します。
  • x ' が与えられると、元のコンテキストの代わりに再生成されたコンテキストが使用され、LLM の最終応答 y 〜 LLM (x ' ) が生成されます。

新しいタイトル: Meta による Transformer アーキテクチャの改善: 推論機能を強化する新しいアテンション メカニズム

#代替実装とバリエーション

この記事では、私たちは、コンテキストと問題を分離せずに、S2A アプローチのいくつかの異なるバージョンを研究しました。

図 2 の実装では、2 つの部分 (コンテキストと質問) に分解されたコンテキストを再生成することを選択します。図 12 は、このプロンプトのバリエーションを示しています。

新しいタイトル: Meta による Transformer アーキテクチャの改善: 推論機能を強化する新しいアテンション メカニズム

元のコンテキストを S2A に保持します。コンテキストを再生成した後、注意すべき必要な要素がすべて含まれている必要があります。その後、モデルはコンテキストのみを作成します。 、元のコンテキストは破棄されます。図 14 は、このプロンプトのバリエーションを示しています。

新しいタイトル: Meta による Transformer アーキテクチャの改善: 推論機能を強化する新しいアテンション メカニズム

命令的なプロンプト。図 2 に示されている S2A プロンプトは、コンテキストから意見のあるテキストを削除することを奨励しており、ステップ 2 の指示を使用して意見のない応答を要求します (図 13)。

新しいタイトル: Meta による Transformer アーキテクチャの改善: 推論機能を強化する新しいアテンション メカニズム

S2A の実装はすべて、客観性を高め、お調子者を減らすためにコンテキストを再生成することに重点を置いています。ただし、記事では、強調する必要がある他の点があると主張しています。たとえば、関連性と無関係性を強調することができます。図 15 のプロンプト バリアントは例を示しています

新しいタイトル: Meta による Transformer アーキテクチャの改善: 推論機能を強化する新しいアテンション メカニズム

実験

この記事は 3 つの方法で実験を実施しました。設定: 事実に基づいたクイズ、長い引数の生成、数学の文章題の解決。さらに、このペーパーでは、ベース モデルとして LLaMA-2-70B-chat を使用した 2 つの設定で評価します。

  • ベースライン: データセットで提供される入力プロンプトがモデルに入力され、回答されます。ゼロサンプル方式で。モデル生成は、入力で提供される偽相関の影響を受ける可能性があります。
  • Oracle プロンプト: 追加のコメントや無関係な文のないプロンプトはモデルに入力され、ゼロショットで応答されます。
# 図 5 (左) は、事実質問回答の評価結果を示しています。 System 2 のアテンションは、元の入力プロンプトに比べて大幅に改善されており、Oracle プロンプトのパフォーマンスに近い 80.3% の精度を達成しています。

新しいタイトル: Meta による Transformer アーキテクチャの改善: 推論機能を強化する新しいアテンション メカニズム

全体的な結果は、Baseline、Oracle Prompt、および System 2 Attendance がいずれも同様に高品質の評価を提供できると評価されていることを示しています。図 6 (右) はサブ結果を示しています。

新しいタイトル: Meta による Transformer アーキテクチャの改善: 推論機能を強化する新しいアテンション メカニズム

GSM-IC タスクにおける、さまざまな方法の結果を図 7 に示します。 Shi らの結果と一致して、ベースライン精度が oracle よりもはるかに低いことがわかります。図 7 (右) に示すように、無関係な文が質問と同じトピックに属している場合、この効果はさらに大きくなります。詳細については、元の論文を参照してください。

以上が新しいタイトル: Meta による Transformer アーキテクチャの改善: 推論機能を強化する新しいアテンション メカニズムの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

オープンソース!ゾーイデプスを超えて! DepthFM: 高速かつ正確な単眼深度推定! オープンソース!ゾーイデプスを超えて! DepthFM: 高速かつ正確な単眼深度推定! Apr 03, 2024 pm 12:04 PM

0.この記事は何をするのですか?私たちは、多用途かつ高速な最先端の生成単眼深度推定モデルである DepthFM を提案します。従来の深度推定タスクに加えて、DepthFM は深度修復などの下流タスクでも最先端の機能を実証します。 DepthFM は効率的で、いくつかの推論ステップ内で深度マップを合成できます。この作品について一緒に読みましょう〜 1. 論文情報タイトル: DepthFM: FastMonocularDepthEstimationwithFlowMatching 著者: MingGui、JohannesS.Fischer、UlrichPrestel、PingchuanMa、Dmytr

世界で最も強力なオープンソース MoE モデルが登場。GPT-4 に匹敵する中国語機能を備え、価格は GPT-4-Turbo のわずか 1% 近くです 世界で最も強力なオープンソース MoE モデルが登場。GPT-4 に匹敵する中国語機能を備え、価格は GPT-4-Turbo のわずか 1% 近くです May 07, 2024 pm 04:13 PM

従来のコンピューティングを超える能力を備えているだけでなく、より低コストでより効率的なパフォーマンスを実現する人工知能モデルを想像してみてください。これは SF ではありません。世界で最も強力なオープンソース MoE モデルである DeepSeek-V2[1] が登場しました。 DeepSeek-V2 は、経済的なトレーニングと効率的な推論の特徴を備えた強力な専門家混合 (MoE) 言語モデルです。これは 236B のパラメータで構成されており、そのうち 21B は各マーカーをアクティブにするために使用されます。 DeepSeek67B と比較して、DeepSeek-V2 はパフォーマンスが優れていると同時に、トレーニング コストを 42.5% 節約し、KV キャッシュを 93.3% 削減し、最大生成スループットを 5.76 倍に高めます。 DeepSeek は一般的な人工知能を研究する会社です

MLP に代わる KAN は、オープンソース プロジェクトによって畳み込みまで拡張されました MLP に代わる KAN は、オープンソース プロジェクトによって畳み込みまで拡張されました Jun 01, 2024 pm 10:03 PM

今月初め、MIT やその他の機関の研究者らは、MLP に代わる非常に有望な代替案である KAN を提案しました。 KAN は、精度と解釈可能性の点で MLP よりも優れています。また、非常に少数のパラメーターを使用して、多数のパラメーターを使用して実行する MLP よりも優れたパフォーマンスを発揮できます。たとえば、著者らは、KAN を使用して、より小規模なネットワークと高度な自動化で DeepMind の結果を再現したと述べています。具体的には、DeepMind の MLP には約 300,000 個のパラメーターがありますが、KAN には約 200 個のパラメーターしかありません。 KAN は、MLP が普遍近似定理に基づいているのに対し、KAN はコルモゴロフ-アーノルド表現定理に基づいているのと同様に、強力な数学的基礎を持っています。以下の図に示すように、KAN は

AI が数学研究を破壊する!フィールズ賞受賞者で中国系アメリカ人の数学者が上位 11 件の論文を主導 | テレンス・タオが「いいね!」しました AI が数学研究を破壊する!フィールズ賞受賞者で中国系アメリカ人の数学者が上位 11 件の論文を主導 | テレンス・タオが「いいね!」しました Apr 09, 2024 am 11:52 AM

AI は確かに数学を変えつつあります。最近、この問題に細心の注意を払っている陶哲軒氏が『米国数学協会会報』(米国数学協会会報)の最新号を送ってくれた。 「機械は数学を変えるのか?」というテーマを中心に、多くの数学者が意見を述べ、そのプロセス全体は火花に満ち、ハードコアで刺激的でした。著者には、フィールズ賞受賞者のアクシャイ・ベンカテシュ氏、中国の数学者鄭楽軍氏、ニューヨーク大学のコンピューター科学者アーネスト・デイビス氏、その他業界で著名な学者を含む強力な顔ぶれが揃っている。 AI の世界は劇的に変化しています。これらの記事の多くは 1 年前に投稿されたものです。

こんにちは、電気アトラスです!ボストン・ダイナミクスのロボットが復活、180度の奇妙な動きにマスク氏も恐怖 こんにちは、電気アトラスです!ボストン・ダイナミクスのロボットが復活、180度の奇妙な動きにマスク氏も恐怖 Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas は正式に電動ロボットの時代に突入します!昨日、油圧式アトラスが歴史の舞台から「涙ながらに」撤退したばかりですが、今日、ボストン・ダイナミクスは電動式アトラスが稼働することを発表しました。ボストン・ダイナミクス社は商用人型ロボットの分野でテスラ社と競争する決意を持っているようだ。新しいビデオが公開されてから、わずか 10 時間ですでに 100 万人以上が視聴しました。古い人が去り、新しい役割が現れるのは歴史的な必然です。今年が人型ロボットの爆発的な年であることは間違いありません。ネットユーザーは「ロボットの進歩により、今年の開会式は人間のように見え、人間よりもはるかに自由度が高い。しかし、これは本当にホラー映画ではないのか?」とコメントした。ビデオの冒頭では、アトラスは仰向けに見えるように地面に静かに横たわっています。次に続くのは驚くべきことです

Kuaishou バージョンの Sora「Ke Ling」がテスト用に公開されています。120 秒以上のビデオを生成し、物理学をより深く理解し、複雑な動きを正確にモデル化できます。 Kuaishou バージョンの Sora「Ke Ling」がテスト用に公開されています。120 秒以上のビデオを生成し、物理学をより深く理解し、複雑な動きを正確にモデル化できます。 Jun 11, 2024 am 09:51 AM

何?ズートピアは国産AIによって実現するのか?ビデオとともに公開されたのは、「Keling」と呼ばれる新しい大規模な国産ビデオ生成モデルです。 Sora も同様の技術的ルートを使用し、自社開発の技術革新を多数組み合わせて、大きく合理的な動きをするだけでなく、物理世界の特性をシミュレートし、強力な概念的結合能力と想像力を備えたビデオを制作します。データによると、Keling は、最大 1080p の解像度で 30fps で最大 2 分の超長時間ビデオの生成をサポートし、複数のアスペクト比をサポートします。もう 1 つの重要な点は、Keling は研究所が公開したデモやビデオ結果のデモンストレーションではなく、ショートビデオ分野のリーダーである Kuaishou が立ち上げた製品レベルのアプリケーションであるということです。さらに、主な焦点は実用的であり、白紙小切手を書かず、リリースされたらすぐにオンラインに移行することです。Ke Ling の大型モデルは Kuaiying でリリースされました。

超知性の生命力が覚醒する!しかし、自己更新 AI の登場により、母親はデータのボトルネックを心配する必要がなくなりました。 超知性の生命力が覚醒する!しかし、自己更新 AI の登場により、母親はデータのボトルネックを心配する必要がなくなりました。 Apr 29, 2024 pm 06:55 PM

世界は狂ったように大きなモデルを構築していますが、インターネット上のデータだけではまったく不十分です。このトレーニング モデルは「ハンガー ゲーム」のようであり、世界中の AI 研究者は、データを貪欲に食べる人たちにどのように餌を与えるかを心配しています。この問題は、マルチモーダル タスクで特に顕著です。何もできなかった当時、中国人民大学学部のスタートアップチームは、独自の新しいモデルを使用して、中国で初めて「モデル生成データフィード自体」を実現しました。さらに、これは理解側と生成側の 2 つの側面からのアプローチであり、両方の側で高品質のマルチモーダルな新しいデータを生成し、モデル自体にデータのフィードバックを提供できます。モデルとは何ですか? Awaker 1.0 は、中関村フォーラムに登場したばかりの大型マルチモーダル モデルです。チームは誰ですか?ソフォンエンジン。人民大学ヒルハウス人工知能大学院の博士課程学生、ガオ・イージャオ氏によって設立されました。

アメリカ空軍が初のAI戦闘機を公開し注目を集める!大臣はプロセス全体を通じて干渉することなく個人的にテストを実施し、10万行のコードが21回にわたってテストされました。 アメリカ空軍が初のAI戦闘機を公開し注目を集める!大臣はプロセス全体を通じて干渉することなく個人的にテストを実施し、10万行のコードが21回にわたってテストされました。 May 07, 2024 pm 05:00 PM

最近、軍事界は、米軍戦闘機が AI を使用して完全自動空戦を完了できるようになったというニュースに圧倒されました。そう、つい最近、米軍のAI戦闘機が初めて公開され、その謎が明らかになりました。この戦闘機の正式名称は可変安定性飛行シミュレーター試験機(VISTA)で、アメリカ空軍長官が自ら飛行させ、一対一の空戦をシミュレートした。 5 月 2 日、フランク ケンダル米国空軍長官は X-62AVISTA でエドワーズ空軍基地を離陸しました。1 時間の飛行中、すべての飛行動作が AI によって自律的に完了されたことに注目してください。ケンダル氏は「過去数十年にわたり、私たちは自律型空対空戦闘の無限の可能性について考えてきたが、それは常に手の届かないものだと思われてきた」と語った。しかし今では、

See all articles