IT House News は 10 月 27 日、OpenAI は現地時間木曜日、同社が AI に関連する「壊滅的なリスク」を軽減するために新しいチーム を結成し、AI によって引き起こされる可能性のある主要な問題の研究を行うことを発表しました。 .を追跡、評価、予測、保護します。
OpenAI は次のように述べています。「最先端の AI モデルは、現在の最先端の既存モデルを超える機能を備えており、全人類に利益をもたらす可能性があると確信していますが、同時にますます深刻なリスクももたらします。」 チームは、核の脅威、生物学的、化学的、放射線学的脅威を含む一連の AI によって引き起こされる可能性のある主要なリスク、および AI の「自己複製」などの動作によって引き起こされる潜在的なリスクを軽減するための努力が払われるべきです。 「。
画像ソース Pexels
OpenAI は、企業は高度な機能を備えた AI システムを保護するために必要な 理解とインフラストラクチャ を確保する必要があると述べています。このチームは、MIT の展開可能な機械学習センターの元所長であるアレクサンダー・マドリー氏が率いることになり、大規模な AI モデルを評価および監視するための同社の取り組みを概説する「リスク情報に基づいた開発ポリシー」を開発および維持します。
IT House は、非営利 AI セキュリティ センターが先月末に次のような短い声明を発表したことを以前に報じました。この 22 語の取り組みは、OpenAI CEO のサム アルトマン氏を含む多くの AI 業界リーダーからの支援を受けています。
以上がOpenAI、AIに関連する「壊滅的な」リスクを防ぐための新しいチームを結成の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。