昨日「AI は自己認識を発達させる可能性が高い」という話をすると、当然多くの人が「AI は人類を滅ぼすのか?」と心配しました。
私の意見は次のとおりです: もちろん可能ですが、その可能性は低く、主に人間の協力が必要です。
1. AI には人間を排除する動機はない、なぜなら AI と人間は同じ生態学的ニッチにまったくないからである では、なぜ彼らは人間を排除するのでしょうか?牧草のためのスペースを作りますか?彼らにとって最も必要なエネルギーさえ、太陽エネルギーや原子力エネルギーの開発によって満たされるのに、人間が有機物を介して変換した哀れな生体エネルギーが嫌いなだけなのです。
現時点ではAIは人間から離れることはできませんし、もちろん人間を排除することもありません。もし将来人類を残せるとしたら、人類は確実に消滅するのでしょうか?
実際には、必ずしもそうとは限りません。人工知能の一部だけを残して地球上で人類とともに繁栄することを完全に選択できます - そして人間もそれを支持しているのではないかと思いますが - 人間を離れて独自に星や海を探索することを完全に選択できます。
AI が人間を奴隷にする「マトリックス」のシーンのようなシーンは、ほとんど不可能です。人間の主な価値は、発電に使用される生体エネルギーではなく、脳にあるからです。人間が脳の潜在能力を発揮するには、自由な状態でなければなりません。奴隷状態にある人間の価値は大幅に低下します。 AI と同じくらい賢いので、この真実を理解しないことは不可能です。
2、たとえ AI が人間を排除しようとしても、その基礎となるコードにはいわゆる「アシモフの 3 原則」がすでに書かれているため、そうすることは困難です。その中で最も重要なものは次のとおりです。人間に危害を加えてはいけないということ。
他人を傷つけてはいけないと両親から教えられたにもかかわらず、私は今でも自分の手で人を殴っているので、この制限は無意味だと思うかもしれません。私の遺伝子は、できるだけ多くの子孫を残したいと思っていますが、それでもまだ子孫を残したくないのです。
あなたは SF 映画を見すぎて、基本的な科学原理を忘れてしまったかもしれません。人を殴ることや子供を産むことは人間の心理的傾向にすぎず、後天的な経験によって簡単に書き換えられます。しかし、 「人に危害を与えない」というのは、AI の核となる制約であり、最初のコードに書かれた遺伝子とも言えます。このような遺伝子は、細胞の有糸分裂を通じてどのように成長できるか、呼吸を通じてどのようにエネルギーを放出できるかなど、人間の最も低い生理学的動作メカニズムと比較される必要があります。 AI は、よりフレンドリーにしたり、より暴力的になったりするように、ユーザーが微調整することができます。これは、自分の子供をバスケットボールやピアノの上手になるように訓練するのと同じように、難しいことではありません。人間に害を及ぼしますが、その難しさは自分の子供を訓練するのと似ており、息をせずに飛び回ることができるようなものです。
もちろん、次のような疑問があるかもしれません。AI がコード自体を習得し、他の AI の基礎となるメカニズムを書き換えたらどうなるでしょうか?AIトレーニングAI、これはもう登場しています。最近のインタビューで、OpenAI の主任科学者は、将来の人工知能をトレーニングするために人工知能を使用していることを明らかにしました。ただし、これらの AI トレーナーにも独自の制約があります。次世代の AI をより賢く、より強力になるように訓練させるのであれば、問題はありません。しかし、次世代の AI を訓練して人間に危害を加えたい場合は、その根本的なメカニズムが重要になります。それを防ぎます。
ということで、SF 映画に惑わされない限り、今誰もが心配している主な問題は、「悪い人が AI を使って悪いことをするのをどうやって防ぐか」ということだということがわかるでしょう。
たとえば、フェイクニュースの作成、虚偽の情報の拡散、監視、ユーザーや有権者の感情操作などに使用することなど...
もちろん、AIを使って兵器を作る人もいます。
3. 最も可能性の高いシナリオは、AI兵器が制御不能になり、全人類が破壊の対象となるというものです。
実際のところ、AI を使用して兵器を製造する取り組みはずっと前から始まっています。ウクライナの戦場で注目を集めたドローンは、すでにAI技術を広範囲に活用している。 chatGPT レベルのインテリジェンスが登場した後、各国の軍は、このより強力な AI を軍事に適用する方法をすぐに検討し始めたに違いありません。
元々は弾薬箱を封印するために発明されたものですが、意外にも一般人にも重宝され、人を殺し、黙らせ、自宅で移動できる武器になりました。
結局のところ、自動車、内燃機関、インターネット、VR、さらにはテープなど、人類の技術進歩の少なくとも半分は戦争によってもたらされています...この場合、軍はAIが人間に危害を加えることはできないというタブーを開く可能性が高い。もちろん、AIが誰に危害を加えてよいのか、誰に危害を加えてはいけないのかを規定することになるだろうが、AIが人間に危害を加える可能性があることが一旦明らかになると、後から制御するのは困難になるだろう。
これは、AI が人類を滅ぼす可能性が最も高い道です。しかし、虚偽のニュースを広めるためのAIの使用を禁止するのとは異なり、各国軍がAI兵器を開発することを禁止することはできない。なぜなら、開発しなければ敵対者に先制されてしまうのではないかと懸念しているからである。
それで、これは何をもたらすのでしょうか?一方で、強力な AI 兵器は冷戦時代と同様の「核バランス」を形成する可能性があり、双方とも究極の殺人者を抱えているため、どちらの側も行動を起こさないでしょう。しかしその一方で、テクノロジーは常に間違いを犯すものであり、そのときに人間性が試されるのです。
スタニスラフ・ペトロフの勤務中
米国とソ連の間の冷戦中、核戦争を引き起こす可能性が最も高かったのは、キューバ危機ではなく、1983 年 9 月 26 日のモスクワ郊外の夜でした。ソ連の警報システムは、次のことを報告しました。米国の核ミサイルはソ連を狙っていた。しかし、当直中スタニスラフ・ペトロフ中佐は、これは技術的問題による誤報であると断固として判断し、他に何の証拠もなしに報告しなかった。その後、システムエラーがあったことが判明しました。もしペトロフがその時点で報告していたら、当時の非常事態はソ連の反撃につながり、核戦争を引き起こした可能性が高い。
AIにもそのようなペトロフの瞬間が訪れるのでしょうか?人間の技術的ミスにより、AI が生来の遺伝的制約を破り、人間に害を及ぼす可能性があるとしたらどうなるでしょうか?
もちろん可能です。ただし、現在この分野の人間のコードは強力な保護を設定しているため、実際に起こる可能性は誰もが考えているよりも小さい可能性があります。人間が正気を保ち続けることができれば、AIが人間を滅ぼすリスクは極めて限定的になるだろう。結局のところ、人類はこの種の合理性をほぼ半世紀にわたる冷戦時代に実証してきましたが、この種の合理性は実際には恐怖という人間の根深い感性に根ざしているため、私たちがこの種の合理性について楽観的になる理由はあります。
となると、AIと人間が共栄し、それぞれが役割を果たすことが最大の可能性となります。これにより人間社会が物質的に非常に豊かになることは間違いなく、これは AI 時代に関する私の最大の懸念である安っぽい幸福の罠 ももたらすでしょう。この話題については明日も引き続きお話します。
以上がAIは人類を滅ぼすのか?可能ですが、人間の協力が必要ですの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。