大規模な言語モデルには論理的推論に問題があることが研究で判明
翻訳者|Li Rui
レビュアー|Sun Shujuan
知覚機能を備えたチャットボットが話題になる前は、大規模言語モデル (LLM) が興奮と懸念の両方の注目を集めていました。近年、大量のテキストでトレーニングされた深層学習モデルである大規模言語モデル (LLM) が、言語理解能力の測定に使用されるいくつかのベンチマークで良好なパフォーマンスを示しています。
GPT-3 や LaMDA などの大規模な言語モデルは、長いテキストにわたって一貫性を維持できます。彼らはさまざまなトピックについて知識があるようで、長い会話を通して一貫性を保っています。大規模言語モデル (LLM) は非常に説得力があるため、これを人格や高次の知能と結びつける人もいます。
しかし、大規模言語モデル (LLM) は人間と同じように論理的推論を実行できるでしょうか? UCLA の科学者が発表した研究論文によると、大規模言語モデル (LLM) で使用される深層学習アーキテクチャである Transformers は推論機能をシミュレートすることを学習しません。その代わりに、コンピューターは推論問題に固有の統計的特性を学習する賢い方法を発見しました。
研究者らは、現在普及しているトランスフォーマー アーキテクチャ BERT を限られた問題領域でテストしました。彼らの結果は、BERT はトレーニング空間内の分布内の例に関する推論問題には正確に応答できるが、同じ問題空間に基づく他の分布内の例には一般化できないことを示しています。
そして、これらのテストは、ディープ ニューラル ネットワークとその評価に使用されるベンチマークのいくつかの欠点を浮き彫りにします。
1. 人工知能における論理的推論を測定するにはどうすればよいですか?
GLUE、SuperGLUE、SNLI、SqUAD など、自然言語処理と問題の理解を対象とした人工知能システムのベンチマークがいくつかあります。 Transformer が大きくなり、より大きなデータセットでトレーニングされるにつれて、Transformer はこれらのベンチマークを段階的に改善することができました。
これらのベンチマークにおける AI システムのパフォーマンスは、人間の知能と比較されることが多いことは注目に値します。これらのベンチマークにおける人間のパフォーマンスは、常識と論理的推論能力に密接に関連しています。しかし、大規模な言語モデルが向上するのは、論理的推論能力を獲得するためなのか、それとも大量のテキストにさらされるためなのかは不明です。
これをテストするために、UCLA の研究者は、命題論理に基づいた論理的推論質問のクラスである SimpleLogic を開発しました。言語モデルの推論機能が厳密にテストされていることを確認するために、研究者らはテンプレート言語構造を使用して言語の違いを排除しました。 SimpleLogic の問題は、ファクト、ルール、クエリ、ラベルのセットで構成されます。ファクトは、「真」であることがわかっている述語です。ルールは条件として定義されたものです。クエリは、機械学習モデルが応答する必要がある質問です。ラベルはクエリに対する答え、つまり「true」または「false」です。 SimpleLogic の質問は、トレーニングと推論中に言語モデルによって予期される信号と区切り文字を含む連続テキスト文字列にコンパイルされます。
#SimpleLogic 形式で出題される質問 SimpleLogic の特徴の 1 つは、質問が自己完結型で事前知識を必要としないことです。多くの科学者が言うように、人間が話すとき、共有された知識を無視するので、これは特に重要です。誰もが知っている世界の基本的な知識について質問されると、言語モデルがしばしば罠に陥るのはこのためです。対照的に、SimpleLogic は開発者に問題を解決するために必要なものをすべて提供します。したがって、SimpleLogic 形式によってもたらされる問題を検討している開発者は、背景知識に関係なく、そのルールを推測でき、新しい例を処理できる必要があります。
2. 統計的特徴と論理推論
研究者らは、SimpleLogic の問題空間が推論関数で表現できることを証明しました。研究者らはさらに、BERT が SimpleLogic のすべての問題を解決するのに十分強力であり、推論関数を表す機械学習モデルのパラメーターを手動で調整できることを示しました。
しかし、SimpleLogic サンプル データセットで BERT をトレーニングしたとき、モデルは推論関数を独自に学習できませんでした。機械学習モデルは、データ分布に関してほぼ完璧な精度を達成します。しかし、同じ問題空間内の他の分布に一般化することはできません。これは、トレーニング データセットが問題空間全体をカバーし、すべての分布が同じ推論関数に由来している場合でも当てはまります。
BERT Transformer モデルの容量は、SimpleLogic の推論機能を表すのに十分です
(注: これは配布外の一般化チャレンジとは異なります)これはオープン スペースの問題に当てはまります。モデルが OOD データに一般化できない場合、トレーニング セットの分布内にないデータを処理するときにパフォーマンスが大幅に低下します。)
研究者らは次のように書いています:「さらなる調査の結果、このパラドックスの説明が得られます。分散したテスト例でのみ高い精度を達成するモデルは推論を学習していません。実際、モデルは論理推論の問題について推論を学習しています。」正しい推論関数をシミュレートするのではなく、統計的特徴を使用して予測を行ってください。」
この発見は、言語タスクに深層学習を使用する際の重要な課題を浮き彫りにしています。ニューラル ネットワークは、統計的特徴の発見と適合に非常に優れています。一部のアプリケーションでは、これは非常に便利です。たとえば、感情分析では、特定の単語と感情カテゴリの間に強い相関関係があります。
ただし、論理的推論タスクの場合、統計的特徴が存在する場合でも、モデルは基礎となる推論関数を見つけて学習しようとする必要があります。
研究者らは次のように書いています。「論理的推論と事前知識の両方を必要とし、言語の違いを提示する自然言語処理 (NLP) タスクを解決するために、ニューラル モデルをエンドツーエンドでトレーニングしようとする場合は、注意が必要です。彼らは、大規模言語モデル (LLM) に必要な大量の情報がデータにまったく含まれていない現実世界では、SimpleLogic によってもたらされる課題がさらに深刻になることを強調しました。
研究者らは、トレーニング データ セットから統計的特徴を削除すると、同じ問題空間の他の分布で言語モデルのパフォーマンスが向上することを観察しました。ただし、問題は、複数の統計的特徴を検出して削除するのは、言うは易く行うは難しということです。研究者らが論文で指摘しているように、「このような統計的特徴は多数あり、非常に複雑であるため、トレーニング データから削除することが困難です。」
3. 深層学習における推論
残念ながら、言語モデルのサイズが大きくなっても、論理的推論の問題は解消されません。それは巨大なアーキテクチャと非常に大規模なトレーニングコーパスの中に隠されているだけです。大規模言語モデル (LLM) は、事実を記述し、文章をうまくつなぎ合わせることができますが、論理的推論に関しては、推論に依然として統計的特徴を使用しており、これは強固な基盤ではありません。さらに、トランスフォーマーにレイヤー、パラメータ、およびアテンションヘッドを追加することによって、論理的推論のギャップが埋まるという兆候はありません。
この論文は、ライフ ゲームや視覚データからの抽象推論など、論理ルールの学習におけるニューラル ネットワークの限界を示した他の研究と一致しています。この論文では、現在の言語モデルが直面している主な課題の 1 つを強調しています。 UCLA の研究者が指摘しているように、「モデルがデータからタスクを学習するようにトレーニングされる場合、モデルは常に推論例に本質的に存在する統計パターンを学習する傾向がありますが、他方では、論理的なルールは学習されません。 「統計的パターンに依存して推論を行います。統計的特徴を含まない論理的な推論データセットを構築するのは難しいため、データから推論を学習することは困難です。」
元のリンク: https://bdtechtalks.com /2022/06/27/大言語モデル-論理推論/
以上が大規模な言語モデルには論理的推論に問題があることが研究で判明の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









このサイトは6月27日、JianyingはByteDanceの子会社であるFaceMeng Technologyによって開発されたビデオ編集ソフトウェアであり、Douyinプラットフォームに依存しており、基本的にプラットフォームのユーザー向けに短いビデオコンテンツを作成すると報告しました。 Windows、MacOS、その他のオペレーティング システム。 Jianyingは会員システムのアップグレードを正式に発表し、インテリジェント翻訳、インテリジェントハイライト、インテリジェントパッケージング、デジタルヒューマン合成などのさまざまなAIブラックテクノロジーを含む新しいSVIPを開始しました。価格的には、クリッピングSVIPの月額料金は79元、年会費は599元(当サイト注:月額49.9元に相当)、継続月額サブスクリプションは月額59元、継続年間サブスクリプションは、年間499元(月額41.6元に相当)です。さらに、カット担当者は、ユーザーエクスペリエンスを向上させるために、オリジナルのVIPに登録している人は、

7月29日、AITO Wenjieの40万台目の新車のロールオフ式典に、ファーウェイの常務取締役、ターミナルBG会長、スマートカーソリューションBU会長のYu Chengdong氏が出席し、スピーチを行い、Wenjieシリーズモデルの発売を発表した。 8月にHuawei Qiankun ADS 3.0バージョンが発売され、8月から9月にかけて順次アップグレードが行われる予定です。 8月6日に発売されるXiangjie S9には、ファーウェイのADS3.0インテリジェント運転システムが初搭載される。 LiDARの支援により、Huawei Qiankun ADS3.0バージョンはインテリジェント運転機能を大幅に向上させ、エンドツーエンドの統合機能を備え、GOD(一般障害物識別)/PDP(予測)の新しいエンドツーエンドアーキテクチャを採用します。意思決定と制御)、駐車スペースから駐車スペースまでのスマート運転のNCA機能の提供、CAS3.0のアップグレード

検索強化生成およびセマンティック メモリを AI コーディング アシスタントに組み込むことで、開発者の生産性、効率、精度を向上させます。 JanakiramMSV 著者の EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG から翻訳。基本的な AI プログラミング アシスタントは当然役に立ちますが、ソフトウェア言語とソフトウェア作成の最も一般的なパターンに関する一般的な理解に依存しているため、最も適切で正しいコードの提案を提供できないことがよくあります。これらのコーディング アシスタントによって生成されたコードは、彼らが解決する責任を負っている問題の解決には適していますが、多くの場合、個々のチームのコーディング標準、規約、スタイルには準拠していません。これにより、コードがアプリケーションに受け入れられるように修正または調整する必要がある提案が得られることがよくあります。

大規模言語モデル (LLM) は巨大なテキスト データベースでトレーニングされ、そこで大量の現実世界の知識を取得します。この知識はパラメータに組み込まれており、必要なときに使用できます。これらのモデルの知識は、トレーニングの終了時に「具体化」されます。事前トレーニングの終了時に、モデルは実際に学習を停止します。モデルを調整または微調整して、この知識を活用し、ユーザーの質問により自然に応答する方法を学びます。ただし、モデルの知識だけでは不十分な場合があり、モデルは RAG を通じて外部コンテンツにアクセスできますが、微調整を通じてモデルを新しいドメインに適応させることが有益であると考えられます。この微調整は、ヒューマン アノテーターまたは他の LLM 作成物からの入力を使用して実行され、モデルは追加の実世界の知識に遭遇し、それを統合します。

AIGC について詳しくは、51CTOAI.x コミュニティ https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou を参照してください。これらの質問は、インターネット上のどこでも見られる従来の質問バンクとは異なります。既成概念にとらわれずに考える必要があります。大規模言語モデル (LLM) は、データ サイエンス、生成人工知能 (GenAI)、および人工知能の分野でますます重要になっています。これらの複雑なアルゴリズムは人間のスキルを向上させ、多くの業界で効率とイノベーションを推進し、企業が競争力を維持するための鍵となります。 LLM は、自然言語処理、テキスト生成、音声認識、推奨システムなどの分野で幅広い用途に使用できます。 LLM は大量のデータから学習することでテキストを生成できます。

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

編集者 | KX 医薬品の研究開発の分野では、タンパク質とリガンドの結合親和性を正確かつ効果的に予測することが、医薬品のスクリーニングと最適化にとって重要です。しかし、現在の研究では、タンパク質とリガンドの相互作用における分子表面情報の重要な役割が考慮されていません。これに基づいて、アモイ大学の研究者らは、初めてタンパク質の表面、3D 構造、配列に関する情報を組み合わせ、クロスアテンション メカニズムを使用して異なるモダリティの特徴を比較する、新しいマルチモーダル特徴抽出 (MFE) フレームワークを提案しました。アライメント。実験結果は、この方法がタンパク質-リガンド結合親和性の予測において最先端の性能を達成することを実証しています。さらに、アブレーション研究は、この枠組み内でのタンパク質表面情報と多峰性特徴の位置合わせの有効性と必要性を実証しています。 「S」で始まる関連研究
