最近、人工知能技術は大規模なモデルで画期的な進歩を遂げており、昨日 Google が提案した Imagen は再び AI 機能に関する議論を引き起こしました。このアルゴリズムは、大量のデータからの事前トレーニング学習を通じて、リアルな画像の構築と言語の理解において前例のない機能を備えています。
多くの人の目から見ると、私たちは一般的な人工知能に近づいていますが、著名な学者でありニューヨーク大学の教授でもあるゲイリー・マーカス氏はそうは考えていません。
最近、彼の記事「オルト・インテリジェンスの新しい科学」は、DeepMind リサーチディレクターのナンド・デ・フレイタス氏の「大規模な勝利」についての見解に反論しました。それを言うこと。
以下は Gary Marcus の原文です:
何十年もの間、AI の分野では、人工知能は自然知能からインスピレーションを得るべきであるという仮定がありました。ジョン・マッカーシーは、AI に常識が必要な理由について独創的な論文「常識を備えたプログラム」を書き、マービン・ミンスキーは人間の思考からインスピレーションを得ようとして有名な本「心の社会」を書きました。その貢献によりノーベル経済学賞を受賞した彼は、「コンピューターが人間の予測された行動をシミュレートできるように、新たに開発されたコンピューター言語がどのようにして心理的プロセスの理論を表現できるのか」を説明することを目的とした有名な「思考のモデル」を執筆しました。 #私の知る限り、現在のAI研究者の大部分(少なくともより影響力のある研究者)はまったく気にしていません。代わりに、彼らは私が「オルト・インテリジェンス」と呼ぶものにもっと焦点を当てています(この用語への貢献については Naveen Rao に感謝します)。
オルト・インテリジェンスとは、人間の知能と同じ方法で問題を解決できる機械を構築することを意味するのではなく、人間の行動から得られる大量のデータを知能の代わりに使用することを意味します。現在、Alt Intelligence の主な焦点はスケーリングです。このようなシステムの支持者は、システムが大きければ大きいほど、真の知性、さらには意識に近づくことができると主張しています。
勉強してください オルト・インテリジェンス自体は新しいものではありませんが、それに伴う傲慢さは新しいものです。
私はしばらくの間、現在の人工知能のスーパースターたち、そして人工知能の全分野に携わるほとんどの人々でさえ、人間の認知を軽視し、言語学や認知心理学を無視、あるいは嘲笑しているという兆候をいくつか見てきました。科学、人類学、哲学の分野で。
しかし今朝、オルト・インテリジェンスに関する新しいツイートを発見しました。このツイートの投稿者でディープマインド社の研究ディレクターであるナンド・デ・フレイタス氏は、AIは「今や規模がすべてだ」と宣言した。実際、彼の見解では(おそらく激しいレトリックで意図的に挑発しているのでしょうが)、AI におけるより困難な課題はすでに解決されています。 「ゲームオーバーだ!」と彼は言った。
本質的には、オルト・インテリジェンスを追求することに何も問題はありません。
Alt Intelligence は、インテリジェント システムの構築方法に関する直観 (または一連の直観) を表します。人間の知性の柔軟性と知性に匹敵するシステムを構築する方法をまだ誰も知らないため、これを達成する方法について人々がさまざまな仮説を追求するのは当然のことです。 Nando de Freitas はこの仮説を可能な限り率直に擁護しており、私はそれを Scaling-Uber-Alles と呼んでいます。
もちろん、名前だけですべてがわかるわけではありません。デ・フレイタス氏は、モデルを大きくするだけで成功を期待することはできないことを明確にしています。最近、人々は多くのスケーリングを行っており、いくつかの大きな成功を収めていますが、いくつかの障害にも遭遇しています。デ・フレイタスが現状にどのように直面しているかについて詳しく説明する前に、現状がどのようなものかを見てみましょう。
現状Gato などのシステムはわかりにくいようです。 、しかし、これらのモデルを注意深く研究したことのある人は、それを人間の知性と混同する人はいないでしょう。 たとえば、DALL-E 2 は、「馬に乗った宇宙飛行士」など、テキストの説明に基づいてリアルな芸術作品を作成できます。また、意外な間違いも犯しやすいもので、例えば、テキスト説明が「青い四角の上に赤い四角」である場合、DALL-E の生成結果は左の図のようになり、右の図は DALL-E によって生成されます。前モデルの結果です。明らかに、DALL-E の生成結果は以前のモデルより劣っています。
アーネスト デイビス、スコット アーロンソン、そして私がこの問題を詳しく調べたところ、多くの同様の例が見つかりました:
さらに、表面的には素晴らしく見える Flamingo にも独自のバグがあります。ディープマインドの上級研究科学者マレー・シャナハン氏はツイートで指摘し、フラミンゴの主著者ジャン・バティスト・アライラック氏は後にいくつかの例を追加した。たとえば、シャナハンはフラミンゴに次の画像を見せました:
# そして、画像をめぐって次のような欠陥のある会話をしました: It 「何もないところから作られている」ようです。 少し前に、DeepMind は、マルチモーダル、マルチタスク、マルチ具体化された「ゼネラリスト」エージェント Gato もリリースしましたが、小さな文字を見ると、依然として信頼できない場所が見つかります。 もちろん、ディープラーニングの擁護者たちは、人間は間違いを犯すと指摘するでしょう。 しかし、正直な人であれば、これらのエラーは現在何かに欠陥があることを示していることに気づくでしょう。私の子供たちが定期的にこのような間違いを犯しているなら、私は今しているすべてをやめて、すぐに神経科医に連れて行くだろうと言っても過言ではありません。 だから、正直に言いましょう。スケーリングはまだ機能していませんが、可能性はあります。デ・フレイタスの理論は、時代精神を明確に表現しています。サットン氏の主張は、人工知能の進歩につながる唯一のものは、より多くのデータとより効率的な計算である、というものです。私の意見では、サットンは半分しか正しくなく、過去に関する彼の説明はほぼ正しいですが、彼の帰納的な未来予測には説得力がありません。
これまでのところ、ビッグデータは、ほとんどの分野 (もちろんすべての分野ではありません) で、適切に設計された知識エンジニアリングを (一時的に) 打ち負かしています。
しかし、Web ブラウザからスプレッドシート、ワード プロセッサに至るまで、世界中のほぼすべてのソフトウェアは依然としてナレッジ エンジニアリングに依存しており、サットン氏はこれを無視しました。たとえば、Sumit Gulwani の優れたフラッシュ フィル機能は、ビッグ データをまったく前提とせず、古典的なプログラミング手法に基づいて構築された、非常に便利な 1 回限りの学習システムです。
純粋なディープラーニング/ビッグデータ システムがこれに匹敵するものはないと思います。
実のところ、スティーブ ピンカー、ジューデア パール、ジェリー フォーダー、そして私などの認知科学者たちが何十年も指摘してきた人工知能に関する重要な問題は、実際にはまだ解決されていません。はい、マシンはゲームを非常に上手にプレイでき、ディープラーニングは音声認識などの分野で多大な貢献をしてきました。しかし、現在のところ、あらゆるテキストを認識し、正常に会話してタスクを完了できるモデルを構築するのに十分な理解を備えた人工知能は存在しません。また、映画「スタートレック」のコンピューターのように推論して一貫した応答を生成することもできません。
私たちはまだ人工知能の初期段階にいます。
特定の戦略を使用して一部の問題に成功したとしても、すべての問題を同様の方法で解決できるとは限りません。特に、一部の故障モード (信頼性の低さ、奇妙なバグ、組み合わせの失敗、理解不能) が 1988 年に Fodor と Pinker によって指摘されて以来変わっていない場合には、これに気づかないのはまったく愚かです。 結論
DeepMind においてさえ、Scaling-Über-Alles がまだ完全に合意されていないことがわかってうれしいです:
Iマレー・シャナハン氏の意見に完全に同意します。「スケーリングだけで人類レベルの一般化が達成できることを示唆するものは、ガトーにはほとんど見当たりません。」
たまたままだ完全に開発されていないアイデアを時期尚早に破棄することなく、人々が自分の研究をさまざまな方向に進めることができる、十分にオープンな考え方を持つ分野を奨励しましょう。結局のところ、(一般的な)人工知能への最善の道は、代替知能ではない可能性があります。
前に述べたように、私は Gato を「代替インテリジェンス」、つまりインテリジェンスを構築する別の方法の興味深い探求として考えたいと思っていますが、それを大局的に考える必要があります。脳は、子供のように学習せず、言語を理解せず、人間の価値観と一致せず、重要なタスクを完了することを信頼できません。
これは、現在私たちが持っている他のものよりも優れているかもしれませんが、それでも実際には機能せず、多額の投資を行った後でも、一時停止する時期が来ています。
それは私たちを人工知能スタートアップの時代に戻すはずです。人工知能は人間の知能の盲目的なコピーであってはなりませんが、結局のところ、人工知能には、記憶力の低下や認知バイアスに悩まされる独自の欠陥があります。しかし、手がかりとして人間と動物の認知に目を向けるべきだ。ライト兄弟は鳥の真似をしたわけではありませんが、飛行制御については何かを学びました。何を学ぶことができ、何から学ぶことができないかを知ることが、成功の半分以上を占めるかもしれません。
私が思うに、肝心なのは、AI がかつては大切にしていたものの、今は追求していないものであるということです。AGI を構築するつもりなら、人間から何かを学ぶ必要があるでしょう。つまり、人間がどのように物理世界を推論し、理解するのか、そして言語や複雑な概念をどのように表し、獲得するのか。
この考えを否定するのはあまりにも傲慢です。
以上が超大型モデルの登場でAIゲームは終わったのか?ゲイリー・マーカス「道は狭い」の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。