自己生成型の人工知能はあらゆる分野に普及しており、AI が人間にもたらす課題と脅威は徐々に人々の懸念を引き起こしています。
ブルームバーグによると、最近、非営利団体 Center for AI Safety は、人工知能、疫病、核戦争によって引き起こされる絶滅のリスクを軽減するという、わずか 22 語の短い声明を発表したとのことです。レベルを上げ、世界的な優先事項となります。
この声明は、人工知能分野の 350 名を超える業界幹部、専門家、教授によって署名され、非営利団体 Center for Artificial Intelligence Security (CAIS) の Web サイトで公開されたと報告されています。 OpenAIのCEOであるサム・アルトマン氏、「AIのゴッドファーザー」ジェフリー・ヒントン氏、2018年チューリング賞受賞者のユシュア・ベンジオ氏、Google DeepMindのCEOであるデミ・デミス・ハサビス氏など。
実際、5 月 16 日、OpenAI 創設者サム アルトマン氏は、米国議会で人工知能技術の潜在的な危険性に関する公聴会に出席した際、政府に対して生成型人工知能の規制と介入を明確に求め、「規制」と述べました。 AI の開発は不可欠であり、非常に新しいテクノロジーには新しいフレームワークが必要です。」したがって、今回の共同サイン会に彼の姿が登場しても不思議ではない。
(インターネットからの画像)
生成型人工知能の無秩序な開発に対する業界の懸念に加え、政界でも同じことが当てはまります。 5月21日、主要7カ国(G7)首脳が人工知能技術標準の策定と確立を呼びかけ、現在の技術ガバナンスが不十分であることを理由に人工知能が「信頼できる」ことを保証するよう業界や規制当局に求めたと報じられた。まだ人工知能の発展についていけていない。欧州連合は今月、人工知能技術の規制に関する法案をほぼ可決したが、これは世界初の包括的な人工知能法案となる見通しだ。
新しいテクノロジーの出現は、災難ほど脅威ではありません。実際、すべてのテクノロジーのアップグレード サイクルには機会とリスクが伴います。抑圧的なイノベーションは確かに回避する必要がありますが、新しいテクノロジーに対する適切な規制も不可欠です。
以上がAIは人類を滅ぼすことができるのか? AI分野の権威者が規制を求めるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。