AIが自律的な意識を持つと何が起こるでしょうか?
『エクス・マキナ』では、エヴァは人間の同情を利用して人間を騙して自由を獲得し、最終的には彼女の「創造者」であるネイサンを殺害します。
最近、多くのネチズンの勧めを受けて、サム・アルトマンはついにこの映画を観ました。
そして、「いい映画だけど、なぜみんなが私にそれを見させようとするのか分かりません。」
これは人工知能を意識させ、チューリングテストに合格させた結果だと警告したい人も多いかもしれない。
しかし、「エクス マキナ」が公開されるまではまだ遠いです。GPT-5 は秘密裏に開発中である可能性があります。AI を賢くすることは、依然として科学者が全力でやりたいことです。彼らの強さ。
#いいえ、ブリティッシュ コロンビア大学の 2 人の研究者は、人間のように考えることができる知的エージェントには多くの利点があることを発見しました。
最新の論文では、彼らはインテリジェントエージェントの「思考複製」(TC)を研究しました。
ここでは、人工知能は人間を模倣することで、人間のように「考え」「行動」することを学習します。AI が思考を持つとき
したがって、研究者は、エージェントが言語を理解できれば、多くの利点があると想像しています。
たとえば、人間が要約、推論、新しい状況に適応し、新しい方法と既存の知識を組み合わせるのを支援します。 、計画し、必要に応じて再計画します。
これらの利点にもかかわらず、AI エージェントは、少なくとも人間の言語で考えることはほとんどありません。
ニューラル ネットワークは、思考のための内部ベクトルの活性化と考えることができますが、多くの人は、離散的な記号言語で思考することには特定の利点があると仮説を立てています。
これは、言語で考えることができるエージェントは、言語を使用しないエージェントよりも学習が早く、パフォーマンスと汎用性が優れている可能性があることを意味します。
これらすべての理由から、AI エージェントの言語で考える能力を強化すると、多くの重要な利点が得られます。
Jeff Clune と Shengran Hu は、この目標を達成するための最も効果的な方法は、「AI に人間の思考を模倣させる」ことだと考えています。
彼らは、人間は単独で思考スキルを習得するのではなく、他の人の例や教師から提供されるフィードバックを通じてスキルの一部を学習することを発見しました。
したがって、効果的なアプローチは、人間が行動しながら自分の考えを話すデモンストレーションからエージェントに学習させることです。
このアプローチは、計画に事前トレーニングされた LLM を使用する既存の作業とは異なります。これは、これらの LLM が、人間が行動中に自分の考えを話すデータ、つまり「思考データ」でトレーニングされていないためです。
「思考データ」のソースとして、研究者らは YouTube ビデオとテキスト録音を選択しました。これらには、人々の行動、計画、決定、再計画の背後にある考えが含まれており、約数百万時間も含まれています。
研究者らは論文の中で、新しい模倣学習フレームワーク「思考クローニング」を提案した。その中で、エージェントは行動の複製など人間のデモンストレーション行動を学習するだけでなく、人間が行動する際の思考方法も学習します。
思考クローニング トレーニング フレームワークでは、エージェントは各タイム ステップで思考を生成する方法を学習し、その後、これらの思考に基づいてアクションを調整します。
全体の枠組みは図の通りで、TCエージェントは上位層コンポーネントと下位層コンポーネントの2層構造になっています。
各タイム ステップで、エージェントは観察、タスク、および思考履歴を入力として受け取ります。上位レベルのコンポーネントはアイデアの生成を担当し、下位レベルのコンポーネントはこれらのアイデアに基づいて操作を生成および実行します。
生成された思考と行動は、デモ データセット内のグラウンド トゥルースと比較され、損失が計算されます。
上部コンポーネントと下部コンポーネントの条件には異なる選択肢があるかもしれませんが、この研究では、思考データセット内の長さ t の特定の軌跡について、研究者はそれを最小化しました。
#より複雑または大規模なシナリオの場合は、事前トレーニングされた視覚言語モデルを使用して上位層コンポーネントを実装できます ( VLM)、またはゼロサンプルの微調整。
基礎となるコンポーネントは、最初からトレーニングすることも、ターゲット ドメイン内の既存の言語条件付きコントローラーから適応させることもできます。
この論文では、研究者らは BabyAI 1.1 モデル アーキテクチャの 2 つのコンポーネントに基づいて研究を実施しました。
このモデルは、メモリ強化アーキテクチャ LSTM を利用して、部分的な可観測性の課題を解決します。さらに、モーダル フュージョンに FiLM を採用し、ビジュアル入力とテキスト入力を効果的に組み合わせます。
ここで、著者は、この記事のすべてのモデルは最初からトレーニングされているが、複雑なフィールドでは事前トレーニングされたモデルを使用する方がよいことを特に強調しています。
下の図は BabyAI 環境の例で、左側の図にはさまざまな色のアイテム (ボール、鍵、箱、ドア) が含まれています。
#エージェントは、物を持ち上げたり、置いたり、移動したり、ドアを開けたり閉めたりすることができます。鍵がかかっている間、あなたが住んでいるドアは、色の一致した鍵でのみ開くことができます。
エージェントには、壁と閉まったドアによってブロックされている、目の前にある 7×7 のグリッド セルが見えます。
「Thought Clone」エージェントのタスクは、紫色のボックス (強調表示) に到達し、ルートの計画を開始することです。
#しかし、青いドアを開けてタスクを完了しようとしたとき、紫色のボールがドアをブロックしていることに気づきました。方法。 。そこで思考クローンエージェントが再計画される。
エージェントの思考と行動は、障害物に遭遇したとき、まずそれらを除去し、除去してから再配置することを示していることがわかります。 -前の目標に進む前のルート。
このプロセスは、特に、人間が最終的に信じて、長い間囚われていたガラスの檻から脱出できるようにするために、エヴァが段階的に計画した方法に似ています。
研究結果は、「思考の複製」が行動の複製よりも優れていることを示しています。
さらに、ゼロショットや微調整の設定では、配布外のタスクでは思考クローンの方が行動クローンよりも大きな利点があります。
興味深いことに、研究者らは、ユーザーが危険な行動を定義できるようにする「犯罪前介入」も開発しました。
#危険な思考が検出された場合、エージェントは終了される可能性があります。テストでは、「犯罪前介入」の効果はほぼ完璧で、人工知能のセキュリティにおける可能性を示しました。
「思考クローン」は人工知能をより賢くするだけでなく、より安全で理解しやすくします。
つまり、AIが犯罪を犯す前であれば、すべてを救うことができるということです。
ジェフ・クルーン氏の見解では、「思考の複製」は人工知能の安全性に貢献します。
エージェントの思考を観察できるため: (1) 物事がうまくいかない理由をより簡単に診断でき、(2) エージェントの思考を修正することでエージェントを導き、( 3) エージェントの思考を修正することができます。計画した危険なことをやっているのです。
著者についてジェフ・クルーン
現在、Jeff Clune はブリティッシュ コロンビア大学のコンピューター サイエンスの准教授です。主に深層強化学習などの深層学習を研究している。
以前は、OpenAI 研究チームのリーダーであり、Uber Artificial Intelligence Laboratory のシニア研究マネージャー兼創設メンバーでした。
以前、彼と OpenAI チームは、Minecraft で AI を動作させるためのビデオ事前トレーニング モデル VPT をリリースしました。動画データから石づくりのツルハシを学ぶ。
#シェングラン・フー
現在英国博士号コロンビア大学の学生で、深層学習と人工知能生成アルゴリズムに興味があります。
以上が思考のクローン化!元OpenAI研究者がAIに人間の思考を模倣させ、現実版「エクス・マキナ」が登場の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。