GPT-4 の制限は、GPT-4 が対話できるのはデジタル世界のみであり、最終的には物理世界と対話する必要があることです。このため、ロボットの出現は身体化された知能の実現を意味するため、特に重要です。 Zhang Bo氏は、人型ロボットを開発する必要はなく、過度に複雑なハードウェアも必要としないと指摘した。彼は、特定のハードウェアに基づいて強化学習研究を実施することを提唱しています。このようなアプローチにより、元の意味を変更することなく微調整が可能になります。
全世界が大型モデルの強力な機能と可能性に驚いていますが、その理由は説明できず、それが「出現」現象によるものであると考えることしかできません。人工知能産業の健全な発展のためには、科学研究、技術革新、産業発展を統合する必要があります。第 3 世代の人工知能を開発するには、説明可能で堅牢な理論と手法が確立されなければなりません。そうでなければ、AI テクノロジーは決して説得力を持たないでしょう。
大規模な言語モデルには上限があります。
一般的な人工知能への道は依然として困難ですが、大規模な言語モデルは AI 業界に大きな道を切り開きました。 Zhipu AI 2024 Annual Technology Open Day で、学者の Zhang Bo 氏は、大規模モデルは一般的なハードウェアとソフトウェアの開発の機会を提供すると述べました。
従来の AI パラダイムは、特定のタスクを完了するために特定のアルゴリズムとルールを使用します。生成 AI パラダイムは、基本モデルと呼ばれる一般的なモデルに基づいており、広範なテキスト データ トレーニングを通じてオープン ドメイン (オープン ドメイン) でトレーニングされます。人間レベルに近い高品質のテキスト、画像、その他のコンテンツを生成でき、微調整などの方法で幅広い下流タスクに適応できます。生成 AI は一般的な AI への一歩を踏み出し、第 2 ステップは AI エージェント、そして第 3 ステップは身体化されたインテリジェンスです。 Zhang Bo氏は、GPT-4はデジタル世界にしか対応できず、最終的には物理世界にも対応しなければならず、それにはロボット、つまり身体化された知性が必要になると語った。身体化されたインテリジェンスの提案は、完全なインテリジェント エージェントを構築するのに役立ち、インテリジェント エージェントが知覚と思考の両方を行うことができるようになります。 「人型ロボットを作る必要はありません。多くの場合、必要なのは手や足だけであり、ハードウェアをそれほど複雑にする必要はないからです。」 同氏は、特定のハードウェアに基づいて強化学習の研究を行うことを提唱しています。
生成 AI の大規模モデルには、3 つの主要な機能と 1 つの主要な欠点があります。 1 つ目は強力な生成機能で、さまざまなコンテキストや過去の会話を含む一貫したテキストを生成する能力で人々を驚かせます。次に、強力な移行機能を備えています。つまり、エージェント タスクのトレーニングと微調整を通じて、対象の下流タスクに適用できます。 3 つ目は、人間とコンピューターの対話、複数のエージェント間の対話、環境との対話などの強力な対話機能であり、AI がさまざまな分野で人間と同等の知能レベルを発揮できるようになります。ただし、これらの大きなモデルには、錯覚という欠点もあります。場合によっては、理にかなっているように見える、でっちあげの答えや意味不明な答えを生成することがあります。
人工知能は経済成長の促進に貢献します建設、保守、設置などの業界は自動化や知能化が難しいですが、管理管理などのホワイトカラーの仕事はAIに代替される可能性があります。 AI は人間のほとんどの仕事の質と効率を向上させることができますが、AI に完全に置き換えられる仕事はまだ少数です。 AI がまだほとんどの仕事を置き換えることができない理由は、大規模モデルにはまだ乗り越えられない上限があるためです。 Zhang Bo氏は、大規模モデルのすべての作業はプロアクティブではなく外部からのプロンプトであり、人間の作業は内部の意図によって駆動されるのに対し、確率的予測を使用して外部からのプロンプトの下でタスクを完了すると述べた。大規模言語モデルで生成される言語と人間の言語生成は動作が似ているだけで、内部メカニズムは根本的に異なります。大規模言語モデルには、無認識、制御不能な品質、信頼性のなさ、堅牢性のなさなどの上限があります。異なるプロンプト単語が与えられます。大規模モデルは異なる答えを出力します。大きな模型も幻覚を引き起こす可能性があります。「模型がどれほど大きくても、幻覚という欠点は常に存在します。」
同氏は、第 3 世代の人工知能を開発するには、説明可能で堅牢な人工知能の理論と手法を確立し、安全で制御可能、信頼性があり、信頼性が高くスケーラブルな AI 技術を開発し、AI の革新的な応用と産業化を促進する必要があると提案しました。説明可能で堅牢な人工知能理論が確立できなければ、AI 技術は信頼性を失い、決して信頼できるものではなくなります。 「これまで、この理論は確立されていないため、人工知能の開発は遅く、曲がりくねっています。この理論が確立できない理由は、3 つの特定の制限があるためです。以前は、特定のモデルしか使用できませんでした」特定の分野の特定の課題を解決するには、どのようにして一般理論を確立することができるのでしょうか? 大きなモデルの出現により、この理論が確立される可能性が得られます。」
Zhang Bo 氏は、大型モデルは一般的なハードウェアとソフトウェアを開発する機会を提供してくれると述べました。人工知能は着実な発展段階に入り、あらゆる分野に多大な影響を及ぼしており、私たちは人工知能産業を発展させるチャンスを掴まなければなりません。しかし、AIは予測不可能で制御できないため、依然として多くの不確実性があります。全世界が大規模モデルの強力な生成、移行、および対話機能に驚いていますが、それを説明することはできず、それを「創発」のせいにすることしかできません。したがって、人工知能産業の健全な発展のためには、科学研究、技術革新、産業発展を組み合わせる必要があります。
以上が大規模モデルの開発には限界があり、説明可能な AI 理論の作成が必要ですの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。