//チェン・ジェン
最近、AI 安全性センター (CAIS) は、人工知能分野の科学者および企業幹部 350 名が署名した「人工知能リスク声明」を発表しました。声明の主な内容は「人工知能のリスクを軽減することで、人類の絶滅は、伝染病や核戦争などの他の社会規模のリスクと並んで、世界的な優先事項となるべきです。」
この公式声明は、今日世界で最も権威のある人工知能の専門家、核科学者、疫学者、その他の専門家や学者の意見を結集したものであり、人工知能がもたらすリスクは最も整理されたと言えるでしょう。包括的な方法。署名者には、OpenAI CEO サム・アルトマン氏、DeepMind CEO デミス・ハサビス氏、Anthropic CEO ダリオ・アモデイ氏の 3 人の AI 企業幹部が含まれており、AI レイ・ヒントンのゴッドファーザーとして知られるジェフ氏と、AI の「ビッグ 3」の 1 人であるジョシュア・ベンジオ氏も含まれています。 AI であり、チューリング賞受賞者であり、中国科学院オートメーション研究所の人工知能倫理の 2 人の中国人科学者と、ガバナンス研究センター所長の Zeng Yi 氏および Zhan Xianyuan 副研究員も公開書簡に署名しました。清華インテリジェント産業研究所。
人工知能脅威理論
人工知能技術の発展が社会科学技術の進歩を促進する役割を果たすことは自明のことです。しかし、人工知能が画期的な進歩を遂げる一方で、人間に対するその悪影響や心理的圧力がますます顕著になってきています。たとえば、宿題やレポートを書くために人工知能を使用する学生が増えており、盗作の定義が難しくなっている一方、犯罪者は脅迫目的で機密データを盗むための新しいハッキング手法を開発するために人工知能を使用しています。
人工知能は人間の働き方にも大きな影響を与えるでしょう。 2030 年までに、7,500 万人から 3 億 7,500 万人が再就職する必要があると推定されています。これは経済に前例のない影響を与えるだけでなく、人々の心理にも前例のない圧力を引き起こすだろう。報告書によると、米国の回答者の 61% が、人工知能が人類の未来を脅かしていると信じています。ジェフリー・ヒントンは、「想像できる最悪のシナリオは何だと思いますか」と尋ねられたとき、「人間が知性の進化における単なる過渡期であることは十分に考えられます。」
人工知能の発展の長所と短所についての合理的な見方
「人工知能は潜在的に私たちよりも賢い」と信じ始める人が増えるにつれ、人工知能テクノロジーの野放しな開発に対する懸念が広がるのも無理からぬことです。 ChatGPTに代表される最先端の人工知能の多くは、今でも学習データのパターンに基づいて複製学習を行っていますが、その学習能力や成長速度は「飛躍的に進歩している」とまでは言い切れないほどです。その急速な発展。
AI チャットボットが誤った情報を広め、人間の仕事を置き換える可能性について警告する議員、擁護団体、テクノロジー業界関係者が増えています。 AI安全センター所長のダン・ヘンドリックス氏は、アルゴリズムのバイアスや誤解を招く情報など、他の種類のAIリスクの解決にも社会全体が協力する必要があるとさえ指摘した。もちろん、このリスク管理プロセスにおいて、差し迫った危険だけに焦点を当てるのは無謀であり、それらを無視するのも同様に無謀です。なぜなら、他の新しいものと同様、人工知能の急速な普及にはチャンスとリスクがあるからです。人々はその利点を活用する一方で、起こり得るリスクにも注意しなければなりません。上手に活用してリスクを防いでいれば、「私のために使って」も大丈夫です。
以上がGen Gen: AI の第一人者が共同で「AI による人類絶滅への警告」を宣言の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。