元 Google CEO のエリック・シュミット氏はインタビューで人工知能を核兵器に例え、世界で最も強力な国々が AI のために互いに破壊し合うことを防ぐために、同様の相互確証破壊の抑止メカニズムを求めました。
相互確証破壊(相互確証破壊、M.A.D.メカニズムと呼ばれ、相互破壊の原理としても知られています)は、「すべてが破壊される」性質の考え方です。対立する二者のうちどちらかがそれをフルに使えば双方が破滅する、これを「恐怖の均衡」という。
シュミット氏はAIを核兵器に例え、AIによる世界の破壊を防ぐために、中国と米国が将来「核実験」の禁止に似た条約を結ぶ可能性があると述べた。
7月22日、シュミットはアスペンセキュリティフォーラムで国家安全保障と人工知能について講演しました。パネル。
テクノロジーにおける倫理的価値観に関する質問に答えて、シュミット氏は、Google の初期には自分自身が情報の力について世間知らずだったと説明しました。
次に、彼はテクノロジーがそれを利用する人々の道徳や倫理とよりよく調和することを求め、人工知能と核兵器の間の奇妙な比較を行いました。
シュミット氏は、近い将来、中国と米国が人工知能に関するいくつかの条約に署名する必要があるだろうと予想している。
シュミット氏は、「1950年代と1960年代に、核実験に関しては『当然のこと』というルールができ、最終的には核実験は禁止された。」と述べた。 「これは信頼または信頼の欠如のバランスの一例であり、これは『驚くべきことではない』ルールです。」彼は、米国と中国という 2 つの人工知能大国の間で誤解や誤解が始まっていることを非常に心配しています。それは危険な出来事を引き起こすことにつながります。
シュミット氏は、現在この分野で研究をしている人は誰もいないが、人工知能は非常に強力であると述べました。
エリック シュミットは、2001 年から 2011 年まで Google の CEO、2011 年から 2015 年まで Google の執行会長、2015 年から 2017 年まで Alphabet の執行会長を務めました。2020 年から 2020 年までは、Alphabet の技術顧問を務めました。 。
Google の会長を務めていた 2008 年、シュミット氏はバラク・オバマ氏の選挙活動を行い、その後エリック・ランダー氏と協力してオバマ大統領の科学・諮問委員会のメンバーになりました。テクノロジー。
2019 年から 2021 年まで、シュミット氏はロバート O. ワーク氏と AI に関する国家安全保障委員会の共同委員長を務めました。
#AI は本当に危険ですか?
傑作レベルのアートワークを作成したり、「StarCraft 2」で人間に勝ったり、ユーザーに基本的な電話をかけたりすることができますが、自動運転などのより複雑なタスクを完了させようとしましたが、それは実現できませんでした。うまくいかないよ。
シュミット氏は、近い将来、中国と米国の両国が安全保障問題を懸念し、双方が人工知能に関する何らかの抑止条約の締結を余儀なくされるだろうと予想している。同氏は、各国が外交を利用して地球上で最も致死性の高い兵器に対する一連の規制を組織していた1950年代と1960年代について語った。しかし、広島と長崎での核爆発のように、核実験禁止条約やSALT II、その他の画期的な法律が制定されるまでには、世界が何十年も核爆発を起こす必要がある。
米国は第二次世界大戦の終わりに核兵器を使用して日本の2つの都市を破壊し、数千人を殺害し、核兵器の永遠の恐怖を世界に証明しました。
その後、ソ連と中国も核兵器の開発に成功し、一方の国が核兵器を発射した場合に確実に核兵器を発射するように「危険の均衡」を維持する抑止理論である相互確証破壊(MAD)が創設されました。核兵器の場合、他の国も核兵器を発射する可能性があります。
これまで、人類は地球上で最も破壊的な兵器の使用を控えてきました。そうすることは世界中の文明を破壊する可能性があるからです。
人工知能には現在そのような力があるのでしょうか?
人工知能自体が核兵器ほど破壊的であることは証明されていないようですが、多くの権力者がこの新しいテクノロジーを恐れており、人工知能に核兵器の制御を委ねることを提案する人さえいます。これらの人々は、核兵器使用の裁定者としては人間よりも人工知能の方が適していると信じています。
人工知能には古典的な「ゴミが入ってゴミが出てくる」問題があります。人種差別的なアルゴリズムは人種差別的なロボットを生み出し、人工知能は偏見も生み出します。
DeepMind CEO の Demis Hassabis は、このことを Schmidt よりもよく理解しています。
DeepMind は、Starcraft II プレイヤーを倒すことができる人工知能を開発しました。Lex Fridman Podcast の 7 月のインタビューで、Fridman は、このような強力なテクノロジーのような人工知能を制御する方法と、Hassabis 自身がどのようにして腐敗を回避したかをハサビスに尋ねました。そのような力によって。
ハサビス氏の答え: 「人工知能は大きすぎるアイデアです。重要なのは、(人工知能を)誰が作ったのか、それがどのような文化から来たのか、どのような価値観を持っているかです。彼らは構築者です」人工知能システムは自ら学習します...しかし、システムの文化と作成者の価値観はシステム内に残ります。」
人工知能は、人工知能システムの 1 つです。作者は、人間がそうするように教えない限り、1.2メガトンの爆発で都市を地面に破壊することはできないと考えています。
以上が元グーグルCEO「AIは核兵器のようなもの。大国は相互破壊を確実にするために「AI抑止力」を確立する必要がある。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。