北京時間10月25日夜のニュース、マイクロソフト、グーグル、人工知能スタートアップのOpenAIとAnthropicは、世界的な規制上の空白を埋めるために、人工知能(AI)の安全基準の開発を強化し、本日取締役を任命した。 。
フロンティアモデルフォーラムがエグゼクティブディレクターを任命この夏、テクノロジー大手は共同で人工知能モデルの安全かつ責任ある開発に特化したフロンティアモデルフォーラム(フロンティアモデルフォーラム)を設立しました。今日、彼らはブルッキングス研究所の人工知能責任者であるクリス・メセロールを組織の事務局長に任命しました。
さらに、フロンティア モデル フォーラムは、AI セキュリティ基金に 1,000 万ドルを投資する計画を発表しました。
メセロール氏は、「実際の規制にはまだ程遠いかもしれない。それまでの間、私たちはこれらのシステム(規制ルール)が可能な限り安全であることを保証したいと考えている。
近年、懸念が高まっている。」と述べた。ますます強力になる AI が人間の仕事を置き換えたり、誤った情報を作成して広めたり、最終的には人間の知性を超えたりする可能性があることについて。
メセロール氏は、フォーラムは公式規制を「補完」することを目指すと述べた。 EUの人工知能法案は来年初めに完成する予定だ。一方、英国は来週、第一回世界人工知能セキュリティサミットを主催し、リーダーや主要テクノロジー幹部らを招待し、関連協力について話し合う予定だ。
メセロール氏はまた、フォーラムでは当初、生物兵器の設計を支援する人工知能の能力や、重要なシステムのハッキングを促進するために使用される可能性のあるコンピューターコードを生成する能力などのリスクに焦点を当てると述べた。
広告文: 記事内で言及されている外部リンクは参照のみを目的としており、このサイトの見解を表すものではありません。
以上がMicrosoft と Google の提携により AI の安全基準を積極的に推進の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。