人工知能法案は、人工知能の開発方法、企業が人工知能を何に使用できるか、準拠しない場合の法的影響など、人工知能の使用に関する共通の規制および法的枠組みを作成することを目的としています。要求事項。この法案は、人工知能を導入する前に特定の状況で承認を取得すること、リスクが高すぎるとみなされる人工知能の特定の使用を禁止すること、人工知能の他の高リスク使用の公開リストの作成を企業に義務付ける可能性がある。
欧州委員会は、この法律に関する公式報告書の中で、この法律は広範なレベルで、EU を信頼できる人工知能のパラダイムに変えることを目指していると述べました。このパラダイムでは、「民主的価値観、人権、法の支配を尊重しながら、AIが法的、倫理的、技術的に強力であることが要求される」。
1. EU 市場で展開および使用される人工知能システムが安全であることを確認し、既存の法的基本的権利と EU の価値観を尊重する。
2. AI への投資とイノベーションを促進するための法的確実性を確保する;
3. AI システムに適用される基本的権利とセキュリティに関する既存法のガバナンスと効果的な執行を強化する;
4.合法的で安全かつ信頼できる人工知能アプリケーションの統一市場の開発を促進し、市場の断片化を防ぎます。
新しい法律の多くの詳細はまだ宙に浮いているが、鍵となるのは人工知能の定義だが、中核となる要素は将来のAI製品を4つのセキュリティレベルに分ける「製品セキュリティフレームワーク」とみられる。カテゴリ、あらゆる業界に適用可能。
スタンフォード・ウィーン大西洋横断技術法フォーラムのマルリッツ・コップ氏がまとめた新法に関する2021年の欧州委員会報告書によると、「臨界度ピラミッド」の最下位が最もリスクの低いシステムだという。このカテゴリに分類される AI アプリケーションは、リスクの高いシステムが通過する必要がある透明性要件に準拠する必要はありません。 「限定的リスク」のカテゴリーでは、チャットボットなどの AI システムに対する透明性要件がいくつかあります。
——欧州連合の新しい AI 法案では、AI プログラムを下から上に、低リスク、限定的リスク、高リスク、許容できないリスクの 4 つのカテゴリに分類しています。
透明性に対する厳格な要件がある高リスク AI カテゴリでは、監督がより厳格になります。序文によると、高リスクのカテゴリには、次のような AI アプリケーションが含まれます。 ##個人教育、キャリア達成のための教育や職業訓練に影響 (テストのスコアなど);
包括的で学際的なチームが監督する AI 影響評価と行動規範を使用して、できれば最初は社内で高リスク AI システムを開発します。
高リスクの人工知能システムは、適合性評価と承認を受け、ライフサイクル全体を通じて EU AI 法の要件に準拠し続ける必要があります。システム外部の一部の組織が適合性評価監査に関与する場合があります。この動的なプロセスにより、ベンチマーク、モニタリング、検証が保証されます。さらに、高リスク AI の動的システムの場合は、ステップ 2 を繰り返す必要があります。
以上が欧州の人工知能法案が間もなく提出され、世界の技術規制に影響を与える可能性があるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。