5月24日のニュースによると、OpenAIの上級幹部3名は最近、AIは厳格に監督される必要があり、AIの開発は核施設のように管理されるべきだとする文書を共同で発表した。
(OpenAI公式サイトにこの記事がアップされています)
OpenAI の 3 人の幹部は、超インテリジェント AI は両刃の剣であると信じています。今後 10 年で、AI の生産量は多くの大企業に追いつき、規制が必要になるでしょう。彼らは、世界が早急に規制する必要があると考えています。国際的な人工知能の監督メカニズムを確立する。
彼らはまた、人工知能の革新が非常に速いため、既存の当局がテクノロジーを完全に制御することは期待できないとも述べました。
現在、この記事はTwitter上で大きな注目を集めており、マスク氏自身も「コントロールは重要だ」と以下のようにコメントしています。多くの人は、OpenAI のアプローチは、人工知能の将来のオープン性と応用についての人々のビジョンを妨げるため、利己的であると信じています。
実際、昔、OpenAI の 3 人の上級幹部のうちの 1 人であるアルトマン氏は、米国議会の公聴会に参加した際に、大型 AI のライセンス発行を担当する新しい機関の設立など、AI セキュリティに関する多くの提案を提出しました。許可を取り消す権限を有する; AI モデルが「自己複製」できるかどうか、「実験室から脱出して独自に行動する」ことができるかどうかなどの危険性を評価するための、AI モデルの一連の安全基準を作成する; 独立した専門家に次のことを要求するモデル監査のさまざまな指標を独立して評価します。今回、彼らは企業アイデンティティを通じてこの問題への一般の関心を再び呼び起こしました。
映画「ターミネーター」シリーズは誰もがよく知っているはずです。映画では人工知能「スカイネット」が地球規模の大破壊を引き起こしましたが、架空の映画だからといって人工知能を過小評価することはできません。未来はここにあり、ChatGPT や Midjourney などの AI モデルが非常に強力な機能を示している今、このテクノロジーの将来の開発方向に注目し始める時期が来たのかもしれません。
以上がOpenAI は AI を原子力施設に例え、AI 開発の世界的な厳格な管理を要求の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。