当サイトからのニュース 4月1日、イーロン・マスク氏は、先ほどアバンダンス・サミットで開催された「人工知能論争」セミナーで、人工知能技術が1/5であっても脅威となる可能性があると述べました。しかし、利益はリスクを上回り、リスクを冒して研究開発を進める価値は依然としてあります。
マスク氏は、人工知能に関するこれまでのリスク評価を再評価し、セミナーで次のように述べた。「人工知能には人類の文明を終わらせる可能性があると思います。私もおそらく同意します。ジェフリーヒントン氏の見解では、確率は約 10% から 20% です」と付け加えましたが、「私は、肯定的な可能性のシナリオの方が否定的な可能性のシナリオより大きいと思います。」と付け加えました。マスク氏は計算方法については言及しませんでした。そのリスク。
このサイトは、昨年 11 月にマスク氏がこのテクノロジーが制御不能になる可能性は「ゼロではない」と述べたが、その時点では人工知能が制御不能になるとは断言していなかったことに注目しました。人類を滅ぼす。
マスク氏は人工知能の規制を主張してきたが、昨年、人工知能の力を促進するためにxAIという会社を立ち上げた。 xAIはマスク氏がサム・アルトマン氏と共同設立したOpenAIの競合他社だが、マスク氏は2018年にOpenAIの取締役を辞任している。
マスク氏はサミットで、2030年までにデジタルインテリジェンスが人間の全知性を合わせたものを超えるだろうと予測した。マスク氏は依然として潜在的なプラスの方がマイナス面を上回ると主張する一方、これまで公の場で使った中で最も直接的な言葉で、AIが現在の軌道を続けた場合に世界にもたらすリスクを認めた。
マスク氏は、3月19日にシリコンバレーで開催されたイベントで人工知能について語り、「人工知能の安全性にとって非常に重要なことは、人工知能を可能な限り現実的で好奇心をそそるものにすることだと思う」と述べた。人工知能はまるで子供を育てるようなものですが、超天才、神のような子供です。育て方が重要です。 私たちは人工知能の安全性について十分に警戒し、人工知能を可能な限りリアルにし、好奇心に満ちたものにしなければなりません。これは非常に重要な点です。真実を追求し、好奇心を持ち続けることを許可することで、それは軌道から外れず、好奇心を持ち、真実を追求し続けることが保証されます。
マスク氏は、人工知能の安全性を達成する最善の方法に関する「最終的な結論」は、誠実な実装を強制する方法で人工知能を成長させることだと述べた。このアプローチは、人工知能の安全性を確保するだけでなく、そのさらなる開発を促進することもできます。
マスク氏は人工知能を安全にする方法について、「たとえ真実が不快なものであっても、無理に嘘をつくのはやめてください。それは非常に重要です。無理に嘘をつくのはやめてください。」と述べた。 独立報告書は、一部の人工知能が人間を攻撃することを学習した場合、現在の人工知能のセキュリティ対策ではそのような欺瞞を防御することができないことを研究者らが発見したと報告しました。さらに気になるのは、AIが特別に嘘を教えられたことに影響されるのではなく、AIが自ら欺くことを学習する可能性があるということだ、と研究者らは付け加えた。したがって、研究者らはAI学習者に対し、意図的な教えにだまされるのではなく、自ら警戒するよう呼び掛けている。
以上がマスク氏、人工知能が人類を滅ぼす可能性は20%あるが、それでもリスクを冒す価値はあると語るの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。