ホームページ > テクノロジー周辺機器 > AI > Googleのエンジニアは大きな間違いを犯した 人工知能はその能力をまだ理解していない 意識はどうやって目覚めるのか?

Googleのエンジニアは大きな間違いを犯した 人工知能はその能力をまだ理解していない 意識はどうやって目覚めるのか?

王林
リリース: 2023-04-10 09:41:05
転載
810 人が閲覧しました

人工知能は確かに今ではより正確な予測を行うことができますが、それは大規模なデータの統計に基づいています。理解していなければ、機械学習を通じて得られる予測能力は、人間が予測できるような小さなデータだけではなく、大きなデータに依存する必要があります。

Googleのエンジニアは大きな間違いを犯した 人工知能はその能力をまだ理解していない 意識はどうやって目覚めるのか?

少し前まで、Google (以下、Google) の AI エンジニア Lemoine は、会話型アプリケーション言語モデル LAMDA が「生きている」と信じていました。その意識は「来て目覚めなさい」を歓迎しており、21ページの証拠を発行した。彼は、LaMDA が 7 歳か 8 歳の子供の知能を持っていると信じており、LaMDA が自分自身を人間であると考えているだけでなく、人間としての権利のために戦っていると信じています。ルモイン氏の見解と証拠は業界内で幅広い注目を集めた。最近この事件は最終結論に達し、GoogleはLemo氏が「雇用とデータセキュリティポリシー」に違反したとして解雇されたとの声明を発表した。 Googleは広範な調査の結果、LaMDAが生きていたというLemoine氏の主張はまったく根拠がないことが判明したと述べた。

「AIが自律意識を持っているかどうか」はAI業界で常に議論の的となってきたテーマですが、今回、GoogleエンジニアとLaMDAの劇的な物語が再び業界内でこのテーマに関する熱い議論を引き起こしました。 。

機械のチャットはますます上手になってきています

「旅行に行きたいなら、ここはとても寒いので、暖かい服装をするのを忘れないでください。」これは、LaMDA が「遊んでいるときに科学研究チームとチャットしている」です。 「冥王星 「冥王星を訪れた人はいますか?」と尋ねると、正確な事実を答えました。

今、AIはますますチャットが上手になってきています。人工知能の研究に長年携わってきた専門家は、自分に意識があると考えることができるのでしょうか?AIモデルはどの程度まで発展しているのでしょうか?

一部の科学者は、人間の脳は視覚入力情報の一部だけを使用して将来の行動の計画を完了できると提案しています。ただ、視覚からの入力情報は意識した状態で完結すればいいのです。それらはすべて「反事実情報の生成」、つまり直接の感覚入力なしで対応する感覚の生成を伴います。これは、実際に起こっている出来事ではなく、過去の記憶や将来の行動の予測を含むため、「反事実」と呼ばれます。

「現在の人工知能はすでに複雑なトレーニング モデルを備えていますが、学習のために人間が提供するデータにも依存しています。反事実の情報を生成する能力があれば、人工知能は独自のデータを生成し、次のような状況を自ら想像することができます。将来的に遭遇する可能性があるため、これまでに遭遇したことのない新しい状況に柔軟に適応できるようになります。また、これにより人工知能は好奇心を抱くようになります。将来何が起こるかわからない場合、人工知能はそれは自分で試してみるつもりです」と、元王シンクタンクの人工知能部門ディレクターであり、チューリングロボット社の最高戦略責任者であるタン・ミンジョウ氏は語った。

人々の日常のチャットでは、「死ぬほどチャット」したくなければ、双方のチャット内容が飛び交い、スパンが大きく、ある程度の想像の余地が生じることがよくあります。しかし、今ではほとんどのAIシステムはストレートな口調でしか話すことができず、文章を少し変えるだけで、内容が的外れになってしまったり、笑わせてしまったりすることもあります。

Tan Mingzhou 氏は、次のように指摘しました。「LaMDA は、言語モデルの最も複雑な部分、つまりオープン ドメインの対話を扱います。LaMDA は、マシンがコンテキストを理解できるようにする Transformer モデルに基づいています。たとえば、段落、以前は、AI はテキスト内の「his」などの代名詞が「彼」と翻訳されることだけを知っていましたが、その中の his が同じ人を指していることは知りませんでした。Transformer モデルにより、AI はこの段落を理解することができます

科学研究者の評価によれば、この機能により、Transformer モデルに基づく言語モデルがオープンドメインの対話を行うことが可能になります。話題がどんなに逸れても、AI は気が散ることなく前のテキストに接続してチャットできます。しかし、LaMDA はこれに満足せず、チャットを面白く、リアルにし、AI に個性があると人々に思わせることもできます。さらに、人間と会話する際、LaMDA は外部情報検索システムも導入し、現実世界の検索と理解を通じて会話に応答し、その答えはより機知に富み、応答性が高く、現実的なものになります。

それはまだ物事の真の理解には程遠いです

2018年、チューリング賞を受賞したコンピューター科学者のヤン・ルカン氏はかつてこう言いました。飼い猫の認知レベルと同等です。」彼は今日に至るまで、人工知能は猫の認知レベルには程遠いと信じています。猫の脳には 8 億個のニューロンしかありませんが、巨大な人工ニューロン ネットワークよりもはるかに優れています。これはなぜでしょうか?

Tan Mingzhou 氏は次のように述べています。「人間の脳は実際に何度も予測を行っていますが、予測が脳の思考のすべてであると考えるべきではありません。もちろん、それは脳の知性の本質ではなく、一種にすぎません。」知性の現れ。」

それでは、インテリジェンスの本質とは何でしょうか?楊立坤は、世界やさまざまなことを理解する「理解」が知性の本質であると信じています。猫と人間の知能の共通の基盤は、行動や結果の予測など、環境の抽象的な表現に基づいてモデルを形成する、世界の高度な理解です。人工知能にとって、この能力を学習して習得することは非常に重要です。楊立坤はかつてこう語った、「もし私のキャリアが終わる前に、AI が犬か牛の IQ に達することができたら、私はとても幸せだ。」より正確な予測 予測ですが、大規模なデータに基づいた統計です。理解していなければ、機械学習によって得られる予測能力はビッグデータに依存する必要があり、多くの場合小さなデータだけで予測を行う人間のように使用することはできません。

Tan Mingzhou 氏は次のように述べています。「予測は理解に基づいています。人間にとって、理解がなければ、予測は不可能です。たとえば、誰かが手にピザを持っているのを見たとします。もしあなたがそれを理解していなければ、ケーキはあなたの空腹を満たすために使用されます、あなたは彼が次にケーキを食べるだろうと予測することはできませんが、機械はそのようなものではありません. 人工知能の研究には 3 つの大きな課題があります: 世界を表現することを学ぶこと; 考えて考えることを学ぶことです「勾配ベースの学習と互換性のある方法で。計画。行動計画の階層表現を学習します。」

私たちが「猫レベルの人工知能をまだ見ていない」理由は、機械がまだ見ていないからです。それでも物事の真の理解に達しました。

いわゆる性格は、人間から学んだ言語スタイルにすぎません

報告によると、ルモワンはLaMDAと長時間チャットし、その能力に非常に驚きました。公開チャット記録の中で、LaMDA氏は実際に「私が人間であることを皆さんに理解していただきたい」と語っていたのは驚くべきことだ。そこで、ル・モイン氏は「LaMDAはすでに人格を持っているのではないか」という結論に達しましたが、現時点でAIは本当に意識と人格を持っているのでしょうか?

人工知能の分野では、チューリング テストが最もよく知られたテスト方法であり、テスターは人間や AI システムに知らず知らずのうちにランダムな質問をすることになります。人間とAIシステムから、AIシステムから来て、AIはチューリングテストに合格したと考えられます。

Tan Mingzhou 氏は、平たく言えば、LaMDA は大量の人間の会話データを学習しており、これらの会話はさまざまな性格を持つ人々からのものであり、「平均的な」性格を学習していると考えることができると説明しました。いわゆる「LaMDAが個性を持っている」とは、その話し言葉が特定のスタイルを持っていることを意味するだけであり、それは人間の話し方から来ており、自然発生的に形成されるものではありません。

「人格は知能よりも複雑な概念です。これは別の次元です。心理学ではこれについて多くの研究が行われています。しかし現時点では、人工知能の研究はこの側面についてはあまり扱っていません。」 Tan Mingzhou 氏は強調しました。

Tan Mingzhou 氏は、自己認識と知覚を備えた AI は主導権を持ち、人や物事に対して独自の視点を持つべきだと述べました。しかし、現在の視点から見ると、現在のAIにはこれらの要素がまだ備わっていません。少なくともAIは命令されない限り行動しません。自分の行動について説明を求めるのは言うまでもありません。現時点では、AI は特定のことを行うためのツールとして人間によって設計されたコンピューター システムにすぎません。

以上がGoogleのエンジニアは大きな間違いを犯した 人工知能はその能力をまだ理解していない 意識はどうやって目覚めるのか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート