IT House は 11 月 28 日、米国サイバーセキュリティ・インフラストラクチャセキュリティ局 (CISA) と英国国家サイバーセキュリティセンター (NCSC) が「安全な AI システム開発のためのガイドライン」ホワイトペーパーを正式にリリースしたと報告しました。
このホワイトペーパーは「初の世界的な AI セキュリティ標準」として宣伝されており、潜在的なセキュリティ リスクを防ぐために設計段階から AI システムのセキュリティを強化することを目的としています。
このガイドラインは、米国、英国、ドイツ、フランス、日本、韓国、シンガポールを含む 18 か国と、Microsoft、Google、OpenAI、人間的、スケール AI。
▲ 画像出典: 英国関連部門
具体的には、ガイドラインはセキュリティ設計、セキュリティ開発、セキュリティ導入、セキュリティ運用(運用・保守)の4つの主要な部分からなり、それぞれの部分において考えられるセキュリティリスクと回避方法を提案し、開発者を支援します。ソースから。
▲ 画像出典: 英国関連部門
IT House は、このガイドの主な目的は AI システムの開発に必要な提案を提供することであると述べ、AI システムの開発は「安全設計」の原則に従う必要があると強調しています。 CISA UKは、このガイダンスでは顧客のセキュリティ、透明性、説明責任を優先するとともに、「設計によるセキュリティ」組織構造の確立を重視していると指摘しました。
このガイドラインは、あらゆるタイプの AI システムに適用されます。業界の「最先端のモデル」をカバーすることに加えて、外部ホスティングを使用する他のモデルや API システムも含まれます。以上が英国、米国などは共同で、世界初の関連安全基準とされる「AIシステム開発ガイドライン」を発表した。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。