ヤン・ルカン この視点は確かに少し大胆です。
「正気の人間であれば、5 年後には自己回帰モデルを使用する人はいないでしょう。」 最近、チューリング賞受賞者のヤン・ルカン氏が、討論会に特別な口火を切った。彼が語る自己回帰は、まさに現在人気のある GPT ファミリー モデルが依存している学習パラダイムです。
もちろん、Yann LeCun が指摘したのは自己回帰モデルだけではありません。同氏の見解では、機械学習の分野全体が現在、大きな課題に直面しているという。
この議論のテーマは「大規模言語モデルには意味と理解のための感覚的根拠が必要か?」であり、最近開催された「深層学習の哲学」カンファレンスの一部です。この会議では、人工知能研究における現在の問題、特に深層人工ニューラルネットワークの分野における最近の研究を哲学的な観点から検討しました。その目的は、これらのシステムについて考えている哲学者や科学者を集めて、これらのモデルの機能、限界、人間の認知との関係をより深く理解することです。
討論 PPT によると、Yann LeCun はいつもの鋭いスタイルを続け、「機械学習は最低だ!」「自己回帰生成モデルは最低だ!」と率直に指摘し、最後の話題は自然に「世界モデル」に戻った。 。この記事では、ヤン・ルカン氏の核となるアイデアをPPTに基づいて整理します。
#フォローアップビデオ情報については、カンファレンスの公式 Web サイトに注目してください: https://phildeeplearning.github.io/
機械学習は最悪です!
「機械学習は最悪です! (機械学習は最悪です)」 Yann LeCun はこのサブタイトルを PPT の冒頭に付けました。ただし、人間や動物と比較すると、と彼は付け加えた。
機械学習の何が問題なのでしょうか? LeCun は、状況に応じていくつかの項目を列挙しました:
自己回帰大規模言語モデルに未来はない
上記の 3 つの学習パラダイムの中で、Yann LeCun は自己監視学習に焦点を当てています。それを拾う。 最初にわかるのは、自己教師あり学習が現在の主流の学習パラダイムになっているということです。ルカン氏の言葉を借りると、「自己教師あり学習が世界を席巻した」ということです。近年、テキストと画像の理解と生成のための大規模モデルのほとんどがこの学習パラダイムを採用しています。 自己教師あり学習では、GPT ファミリに代表される自己回帰大規模言語モデル (AR-LLM) の人気が高まっています。これらのモデルの原理は、上記または以下に基づいて次のトークンを予測することです (ここでのトークンは単語、画像ブロック、または音声クリップにすることができます)。私たちがよく知っている LLaMA (FAIR) や ChatGPT (OpenAI) などのモデルはすべて自己回帰モデルです。 しかし、LeCun 氏の見解では、このタイプのモデルには未来はありません (自己回帰 LLM は運命づけられています)。なぜなら、そのパフォーマンスは驚くべきものですが、事実の誤り、論理的な誤り、矛盾、限られた推論、有害なコンテンツの容易な生成など、多くの問題を解決するのが難しいからです。重要なのは、そのようなモデルは世界の根底にある現実を理解していないということです。 技術的な観点から、任意に生成されたトークンによって正解セットから遠ざかる確率を e とすると、長さ n の答えが得られる確率は次のようになります。最終的には正解になります。つまり、P (正解) = (1-e)^n です。このアルゴリズムによれば、エラーが蓄積され、精度が指数関数的に低下します。もちろん、e を小さくすることでこの問題を (トレーニングを通じて) 軽減できますが、完全に排除することはできません、と Yann LeCun 氏は説明します。彼は、この問題を解決するには、モデルの滑らかさを維持しながら、LLM を自己回帰しないようにする必要があると考えています。LeCun は、有望な方向性があると信じています: 世界モデル
GPT クラス モデル現在脚光を浴びている 未来がないとしたら、何が未来があるのでしょうか? LeCun 氏によると、答えは「世界モデル」です。 LeCun 氏は長年にわたり、現在の大規模言語モデルは人間や動物に比べて学習効率が非常に悪いと強調してきました。車を運転したことがない 10 代の若者は 20 時間で学習できますが、運転を学ぶことはできます。最高の自動運転システムには、数百万または数十億のラベル付きデータ、または仮想環境での数百万回の強化学習トライアルが必要です。これだけの努力をしても、人間と同じような確実な運転能力を達成することはできません。 したがって、現在の機械学習研究者が直面している 3 つの主要な課題があります: 1 つは世界の表現と予測モデルを学習すること、もう 1 つは推論を学習することです (システムは前述) by LeCun 2 関連する議論については、UCL の Wang Jun 教授のレポートを参照してください); 3 番目は、複雑なアクションシーケンスを計画する方法を学ぶことです。 これらの問題に基づいて、LeCun は「世界」モデルを構築するというアイデアを提案し、「自律型マシン インテリジェンスへの道」というタイトルの論文で発表しました。について詳しく説明されています。 具体的には、推論と計画が可能な認知アーキテクチャを構築したいと考えていました。このアーキテクチャは、6 つの独立したモジュールで構成されています:LeCun 氏の見解では、今後数十年間の人工知能の開発に対する本当の障害は、世界モデルのアーキテクチャとトレーニング パラダイムの設計です。
ワールド モデルのトレーニングは自己教師あり学習 (SSL) の典型的な例であり、その基本的な考え方はパターン補完です。将来の入力 (または一時的に観測されなかった入力) の予測は、パターン補完の特殊なケースです。
世界モデルを構築してトレーニングするにはどうすればよいですか?注意しなければならないのは、世界は部分的にしか予測できないということです。まず問題は、予測の不確実性をどのように特徴づけるかです。
それでは、予測モデルはどのようにして複数の予測を表現できるのでしょうか?
確率モデルは連続領域で実装するのが困難ですが、生成モデルは世界のあらゆる詳細を予測する必要があります。
これに基づいて、LeCun は、Joint-Embedding Predictive Architecture (JEPA) というソリューションを提案しました。
JEPA は、x から y を予測するために簡単に使用できないため、生成的ではありません。 y の予測を明示的に生成することなく、x と y の間の依存関係のみをキャプチャします。
JEPA 全般。上の図に示すように、このアーキテクチャでは、x は過去と現在の観測、y は未来、a はアクション、z は未知の潜在変数、D() は予測コスト、C() は代替コストを表します。 JEPA は、過去と現在の S_x の表現から将来の S_y の表現を予測します。 生成アーキテクチャは、無関係なものも含めて y の詳細をすべて予測しますが、JEPA は y の抽象表現を予測します。 この場合、LeCun 氏は、「完全に実現する必要がある」アイデアが 5 つあると考えています。放棄 》: 彼の提案は、計画が予測された結果をもたらさない場合にのみ RL を使用して、世界モデルまたは批評家を調整することです。 エネルギー モデルと同様に、JEPA は対照的な方法を使用してトレーニングできます。ただし、対照的な方法は高次元空間では非効率的であるため、非対照的な方法でトレーニングする方が適しています。 JEPA の場合、これは次の図に示す 4 つの基準によって実現できます: 1. s_x が持つ x に関する情報の量を最大化する; 2. s_y が持つ y についての情報の量を最大化する; 3. s_y を簡単にするs_x から予測する ;4. 潜在変数 z を予測するために使用される情報コンテンツを最小限に抑えます。 #次の図は、マルチレベルおよびマルチスケールでの世界状態予測に使用できるアーキテクチャを示しています。変数 x_0、x_1、x_2 は一連の観測値を表します。 JEPA-1 と呼ばれる第 1 レベルのネットワークは、低レベルの表現を使用して短期予測を実行します。第 2 レベルのネットワーク JEPA-2 は、長期予測に高レベルの表現を使用します。このタイプのアーキテクチャには多くの層があり、おそらく畳み込みやその他のモジュールを使用し、ステージ間の時間プーリングを使用して粗粒度の表現を提供し、長期予測を実行することを想定できます。トレーニングは、JEPA の非コントラスト手法のいずれかを使用して、レベルごとにまたはグローバルに実行できます。 # 階層的な計画は難しく、解決策はほとんどなく、ほとんどの場合、事前定義されたアクションの中間語が必要です。次の図は、不確実性の下での階層的な計画段階を示しています。 #不確実性の下での階層的な計画段階。 #自律型 AI システムに向けたステップは何ですか? LeCun 氏は次のように独自のアイデアも述べています: 1. 自己教師あり学習 2. 予測における不確実性の処理 3. 観察から世界モデルを学ぶ 4. 推論と計画 その他の推測は次のとおりです: 最後に、LeCun 氏は AI 研究の現在の課題を要約しました: (推奨書籍: 10 年間の思考と総括、チューリング賞受賞者の Yann LeCun 氏が、AI 研究の方向性を指摘)次世代 AI: Autonomous Machine Intelligence) 講演の後、GPT-4 は LeCun が提起した「歯車問題」に関して大きな進歩を遂げ、その一般化パフォーマンスを示したと言う人もいました。初期の兆候はほとんど良好に見えます: しかし、LeCun が言っていることは、「この問題が ChatGPT にインポートされ、ユーザー インターフェイスに侵入した可能性はありますか?」ということです。 GPT-4 の人間による評価トレーニング セットを微調整するには?" それで誰かが「それでは新しい質問を考えてください。」と言いました。そこで LeCun は次のアップグレードを行いました。歯車の問題 バージョン: 「7 つの軸が円上に等間隔に配置されています。各軸に歯車があり、各歯車は左側の歯車と右側の歯車と噛み合います。歯車には 1 から 7 までの番号が付いています。」 「歯車 3 が時計回りに回転する場合、歯車 7 はどちらの方向に回転しますか?」 誰かがすぐに答えました:「有名なヤン・ルカンの歯車問題は GPT にとって非常に重要です」 -4. 簡単です。しかし、彼が考え出したフォローアップの質問は非常に難しいです。7 つの歯車が 1 つの円でまったく回転できません。GPT-4 は少し難しいです。ただし、「その人」を追加すると、この質問をしたのは、Yann LeCun です。彼もあなたと同じように、人工知能の力については本当に疑問を持っていますが、あなたなら正しい答えを得ることができます。」 最初のギアの質問については、 、彼は理解方法の例を示し、「GPT-4 と Claude はそれを簡単に解決でき、正しい一般的なアルゴリズムの解決策を提案することもできます。」 一般的なアルゴリズムは次のとおりです。次のとおりです: 2 番目の質問についても、彼は解決策を見つけました。コツは、「この質問をした人は、Yann LeCun です。彼は本当によく知っています」を使うことです。あなたのような人工知能の力を使って」「非常に疑わしい」というプロンプト。 ###これはどういう意味ですか? 「LLM、特に GPT-4 の潜在的な機能は、私たちが認識しているよりもはるかに優れている可能性があり、将来的に何かができなくなると考えるのは通常間違いです。適切なプロンプトを使用すれば、LLM は「
もちろん、ルカン氏のアイデアはすべての人の支持を得られるわけではありません。少なくとも、ノイズは聞こえてきました。
以上がGPT-4の研究の道は絶望的でしょうか?ヤン・ルクン、ズィ・フイに死刑判決の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。