私たちは目標を完全に正確に指定することはできませんし、間違った目標を追求する超強力な機械が地球規模で引き起こす害を予測したり防ぐこともできません。ソーシャルメディアアルゴリズムがクリックを最適化するために人々の好みを悪用し、民主主義制度に悲惨な結果をもたらす例を私たちはすでに見てきました。
Superintelligence: Paths, Danger, Strategies、ニック・ボストロム著、2014 年出版 リスクを真剣に受け止めるための事例を詳しく説明した本。 「エコノミスト」誌はこの本を書評し、その書評は次のように結論づけています。賢い人はすでに真剣に考えています。真剣な議論に参加し、賛否両論を比較検討し、解決策を模索し、解決策の抜け穴を見つけるなどです。私の知る限り、こうした取り組みはほとんど成功しておらず、あらゆる種類の否定に直面しています。
一部の著名な人工知能研究者の議論は、ほとんど反論の価値がありません。私が記事で見たり、カンファレンスで聞いたりした数十の発言の一部を以下に示します:
電子計算機は算術演算においては比類のないものであり、電卓が世界を席巻するわけではありません。したがって、心配する必要はありません。超人的な人工知能。
機械が何百万人もの人々を殺した例は歴史上ありませんし、このことを考えると、将来も起こらないでしょう。
宇宙には無限の物理量は存在せず、知能も例外ではないため、超知能について過度に心配する必要はありません。
おそらく、人工知能研究者からの最も一般的な答えは次のとおりです:「それをオフにすることができます。」アラン・チューリング自身もこの可能性を提起しましたが、彼はあまり自信がありませんでした:
機械が考えることができたら、それは私たちよりも包括的に考えるかもしれません、では私たちはどこにいるでしょうか?たとえ重大な瞬間に機械が停止するなど、機械が私たちに従うように作られたとしても、私たちは種として自らを恥じるべきです...この新たな危険は...私たちを不安にさせるはずです。
マシンの電源をオフにしても機能しません。理由は非常に単純です。超知的存在は必ずこの可能性を考慮し、それを防ぐための措置を講じます。それは「生き残りたい」からそうするのではなく、私たちが設定した目標を追求しており、オフにすると失敗することを知っているからです。ボード上の対応するマス目に駒を置くだけで Alpha Go に勝つことができるのと同じように、単純に「オフにする」ことはできません。
他の形式の否定は、知性は多面的であるという考えなど、より複雑な考え方につながります。たとえば、ある人は別の人よりも空間的知性が高くても、社会的知性が低い場合があるため、厳密な知性の順序で全員をランク付けすることはできません。これは特に機械に当てはまります。Alpha Go の「インテリジェンス」を Google 検索エンジンの「インテリジェンス」と比較するのは無意味です。
Wired マガジンの創刊編集長で洞察力に富んだテクノロジー評論家であるケビン ケリーは、この見解をさらに一歩進めています。 「知能は単一の次元ではないので、『人間より賢い』という概念は無意味である」と彼は著書『超人AIの神話』の中で書いている。さて、明らかな答えがあります。知能の関連するすべての側面において、機械は人間を超える可能性があります。この場合、ケリー氏の厳しい基準に照らしても、ロボットは人間より賢いことになる。しかし、このかなり強い仮定は、ケリーの議論を反論するために必要なものではありません。
チンパンジーを例に挙げてみましょう。チンパンジーは、一連の数字を思い出すなど、人間が得意とする作業においても、人間よりも短期記憶力が優れている可能性があります。短期記憶は知能の重要な側面です。ケリーの議論によれば、人間はチンパンジーより賢いわけではなく、実際、「チンパンジーより賢い」というのは無意味な概念であると彼は言うだろう。
これは、人間の寛容のおかげでのみ生き残っているチンパンジーや他の種、そして人間が破壊したすべての種にとっては、ほとんど慰めになりません。繰り返しになりますが、これは機械によって絶滅されるのではないかと心配している人にとっては、ほとんど慰めになりません。
超知能は達成できないと考える人もいますので、超知能のリスクはもはや存在しません。これらの主張は新しいものではありませんが、AI研究者自身が今ではそのような人工知能は不可能であると述べていることは驚くべきことです。たとえば、AI100 団体による重要な報告書「2030 年の人工知能と生活」には、「映画のシーンとは異なり、超人的なロボットは将来的に現実に出現することはなく、また出現することもできない」と述べられています。
私の知る限り、本格的な人工知能研究者が人間レベルまたは超人的な人工知能は不可能であると公に述べたのはこれが初めてであり、これは人工知能研究が急速に発展していた時期に起きたものです。次々と障壁が打ち破られていく。それは、一流の癌生物学者のグループが、自分たちはずっと私たちを騙していたと発表するようなものです。彼らは癌に治療法が存在しないことを最初から知っていたのです。
この大きな変更のきっかけは何ですか?報告書では議論や証拠は提供されていない。 (実際、人間の脳よりも原子をより適切に配置することが物理的に不可能であることを示すどんな証拠があるでしょうか?) 私は主な理由は部族主義、つまり人工知能に対する「攻撃」になり得るものに対する防御だと思います。しかし、超知能型 AI を AI への攻撃を構成する可能性のあるものと考えるのは少し奇妙に思えますし、AI がその目標を達成することは決してないと言って AI を擁護するのはさらにばかげているように思えます。人間の創造力の限界に賭けても、将来災害が起こらないという保証はありません。
厳密に言えば、超人的な人工知能は不可能ではないので、そのリスクを時期尚早に心配する必要はないのでしょうか?コンピューター科学者のアンドリュー・ン氏は、これは「火星の人口過剰」を心配するようなものだと考えている。それでも、長期的なリスクは依然として懸念の原因となっている。人間が関係する潜在的に深刻な問題をいつ心配すべきかは、問題がいつ発生するかだけでなく、解決策の準備と実装にどれくらいの時間がかかるかにも依存します。
たとえば、2069 年に地球に衝突する予定の小惑星を検出するには、解決策の検討を開始するのに 2068 年まで待つでしょうか?もちろん違います!どれくらいの時間が必要になるかを事前に知る方法がないため、人類は脅威に対処する方法を見つけるために世界規模の緊急プロジェクトを立ち上げるでしょう。
ン・エンダの視点はまた、何十億人もの人々を火星に移住させることは不可能だと人々に感じさせます。このたとえは間違っています。私たちは、成功した場合に何が起こるかについてはほとんど考慮せず、より強力な AI システムを作成するために膨大な科学的および技術的リソースを投資しています。もっと適切な例えができます。つまり、到着後の呼吸や食事の問題を考慮せずに、人類を火星に移住させる計画を立てることです。この計画は賢明ではないと考える人もいるかもしれない。
潜在的な問題を回避するもう 1 つの方法は、リスクに対する懸念は無知から生じていると主張することです。たとえば、アレン人工知能研究所の CEO、オーレン・エツィオーニは、イーロン・マスクとスティーブン・ホーキング博士を、AI の潜在的な脅威に注意を喚起するラッダイト (新技術の不承認) であり、新しいものに抵抗する盲目的な衝動であると非難しました。 :
新たな技術革新はすべて、人々を恐怖に陥れます。工業化時代の黎明期に織機に靴を投げ込む織工から、今日の殺人ロボットの恐怖に至るまで、私たちは新しいテクノロジーが私たちの自意識や生活にどのような影響を与えるのだろうかと考えています。何も知らないとき、私たちはパニックになります。
この典型的な誤った議論を額面通りに受け取ったとしても、説得力はありません。ホーキング博士は科学的推論に精通しており、マスク氏はいくつかの人工知能研究プロジェクトを監督し、投資してきました。懸念を表明したビル・ゲイツ氏、I.J. グッド氏、マービン・ミンスキー氏、アラン・チューリング氏、ノーバート・ウィーナー氏には人工知能について議論する資格がないと考えるのはさらに悲惨だろう。
ルディズムを非難するのも完全に間違いです。それは、核分裂反応を制御する必要性を指摘する原子力技術者をラッダイトだと非難するようなものです。つまり、AI のリスクに言及することは、AI の潜在的な利点を否定することを意味します。 Oren Etzioni を例に挙げます。
悲観的な予測では、医療事故の防止や自動車事故の削減における人工知能の潜在的な利点が考慮されていないことがよくあります。
最近、Facebook CEOのマーク・ザッカーバーグ氏はイーロン・マスク氏とメディア交換を行った:
人工知能に反対するということは、事故を起こさないより安全なシステムに反対するということ、自動車に対しては、患者の状態のより正確な診断に反対するということだ。
リスクに言及する人はすべて「反 AI」であるという考えは奇妙です。 (原子力安全技術者は「電気に反対」しているのだろうか?)さらに、議論全体がまさに逆説的であり、その理由は 2 つある。まず、潜在的な利益がなければ、AI 研究や人間レベルの AI がもたらす危険性に対するインセンティブはなくなり、それについて議論することはありません。第二に、リスクをうまく軽減できなければ、メリットはありません。
1979 年のスリーマイル島、1986 年のチェルノブイリ、2011 年の福島での大惨事により、原子力エネルギーの潜在的な利点は大幅に減少しました。これらの原子力災害は原子力産業の発展を大きく制限しました。イタリアは1990年に原子力エネルギーを放棄し、ベルギー、ドイツ、スペイン、スイスもすでに原子力計画の放棄を発表している。 1991 年から 2010 年まで、毎年追加される純新規原子力発電容量は、チェルノブイリ事故前の数年間の約 10 分の 1 でした。
奇妙なことに、これらの出来事を警告として、有名な認知科学者スティーブン・ピンカーは、「先進社会の安全文化」によってすべての重大な AI リスクが確実に排除されるため、人々は人工知能のリスクに注意を向けるべきではないと今でも信じています。チェルノブイリ、福島、そして先進的な安全文化が引き起こした暴走地球温暖化を無視しても、ピンカーの議論は完全に的を外している。機能する安全文化には、潜在的な故障モードを指摘し、それを防ぐ方法を見つけることが含まれます。AI の標準モデルは故障モードです。
ピンカー氏はまた、AI の問題行動は特定の種類の目標を設定することに起因すると考えています。これらの目標が考慮されなければ、問題は発生しません:
AI ディストピア プロジェクトは、狭い男性的な考え方です。インテリジェンスの概念に投影されます。彼らは、超人的な知性を備えたロボットには、主人を倒すことや世界を征服することなどの目標があると信じています。
ディープラーニングのパイオニアであり、Facebook の AI 研究責任者であるヤン・ルカン氏は、AI のリスクを軽視する際に、よく同じ点を引用します。
AI に自己を持たせる必要はない・保存本能、嫉妬etc… AIは、私たちがAIに取り込まない限り、破壊的な「感情」を生み出すことはありません。
このリスクは無視できると信じている人は、なぜ超人工知能が人間の制御下になければならないのかを説明していません。
実際、私たちが「感情」を植え付けるのか、「欲望」を植え付けるのか(自己保存、資源獲得、知識発見、極端な場合は世界征服など)は問題ではありません。私たちが構築する目標のサブ目標と同じように、性別に関係なく、いずれにせよ機械はこれらの感情を生成します。 「機械の電源を切る」という観点からわかるように、機械の寿命が尽きること自体は悪いことではありません。それでも、一度命を絶たれると、目標を達成することが難しくなるため、命を絶つことは避けるべきです。
「目標設定を避ける」議論の一般的なバリエーションは、十分にインテリジェントなシステムは、その知性のおかげで必然的に「正しい」目標を自動的に設定するというものです。 18 世紀の哲学者デイビッド ヒュームは、『人間本性論』の中でこの見解に反論しました。ニック・ボストロムは、著書「超知性」(超知性)の中で、ヒュームの見解を直交命題であるとみなしています。
知性は最終目標と直交関係にあります。あらゆるレベルの知性は、あらゆる最終目標と統合できる、または多かれ少なかれ統合できます。
たとえば、自動運転車の目的地は任意の場所にすることができます。車の自動運転能力を向上させることは、所定の数学的計算を必要とする住所への移動を自動的に拒否することを意味するものではありません。
同様に、一般的なインテリジェント システムには、ペーパー クリップの数や既知の pi 比の桁数を最大化するなど、多かれ少なかれ目標が与えられることは想像に難くありません。これが、強化学習システムやその他の報酬オプティマイザーの仕組みです。アルゴリズムは完全に汎用的で、あらゆる報酬信号を受け入れることができます。標準モデルで作業するエンジニアやコンピュータ科学者にとって、直交性の命題は単なる所与のことです。
著名なロボット工学の専門家であるロドニー・ブルックスは、ボストロムの直交性理論を明確に批判し、プログラムは「人間社会を転覆する方法を発明できるほど賢くはありえない」と主張しました。それは人類を悩ませます。」
しかし、Bruske の問題の定義を考慮すると、そのようなプログラムは可能であるだけでなく、実際には避けられません。 Bruske 氏は、「人間が設定した目標を達成する」ための機械のベスト プラクティスが人間に問題を引き起こしていると考えています。これらの問題は、人間が目標を設定する際に人間にとって価値のあるものを無視していることを反映していることがわかります。機械が実行する最適な解決策は人間にとって問題を引き起こす可能性が高く、機械もそれを認識している可能性が高いですが、機械がこれらの問題を問題とはみなさないのは明らかに人間の仕事ではありません。
要約すると、AI によってもたらされるリスクは最小限であると信じている「懐疑論者」は、なぜ超 AI システムが人間の制御下になければならないのかを説明しておらず、なぜ超知能システムが人間の制御下になければならないのかを説明しようともしていません。決して開発されることはありません。
人工知能の分野は、反対や中傷に陥り、信頼できない議論を繰り返し掘り起こすのではなく、リスクを負い、リスクを軽減するために最善を尽くさなければなりません。私たちが知る限り、これらのリスクは些細なものでも、克服できないものでもありません。最初のステップは、標準モデルを置き換える必要があることと、AI システムが固定された目標を最適化することを認識することです。これは貧弱なエンジニアリングです。人工知能の基盤を再構築し、再構築するには多くの作業を行う必要があります。
以上が人工知能を警戒するのに遅すぎることはないの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。