Le projet de loi sur l'intelligence artificielle vise à créer un cadre réglementaire et juridique commun pour l'utilisation de l'intelligence artificielle, y compris la manière dont elle est développée, les raisons pour lesquelles les entreprises peuvent l'utiliser et les conséquences juridiques du non-respect des exigences. Le projet de loi pourrait obliger les entreprises à obtenir une approbation dans certaines circonstances avant d'adopter l'intelligence artificielle, interdire certaines utilisations de l'intelligence artificielle jugées trop risquées et créer une liste publique d'autres utilisations à haut risque de l'intelligence artificielle.
Dans un rapport officiel sur la loi, la Commission européenne a déclaré qu'à un niveau général, la loi cherche à codifier le paradigme fiable de l'intelligence artificielle de l'UE. Ce paradigme « exige que l’IA soit forte sur le plan juridique, éthique et technologique, tout en respectant les valeurs démocratiques, les droits de l’homme et l’État de droit ».
1. Garantir que les systèmes d'intelligence artificielle déployés et utilisés sur le marché de l'UE sont sûrs et respectent les droits fondamentaux juridiques existants et les valeurs de l'UE ; promouvoir l'investissement et l'innovation dans l'intelligence artificielle ;
3. Renforcer la gouvernance et l'application efficace des lois existantes sur les droits fondamentaux et la sécurité applicables aux systèmes d'IA ;
4. Promouvoir le développement du marché des applications d'intelligence artificielle légales, sûres et fiables ; empêcher la différenciation du marché.
Bien que de nombreux détails de la nouvelle loi soient encore en suspens, la clé étant la définition de l'IA, le facteur central semble être son « cadre de sécurité des produits » qui divise les futurs produits d'IA en quatre catégories de niveaux de sécurité applicables à toutes les industries. .
Selon le rapport 2021 de la Commission européenne sur la nouvelle loi compilé par Maruritz Kop du Stanford-Vienna Transatlantic Technology Law Forum, le bas de la « pyramide de criticité » est le système le moins risqué. Les applications d’IA qui entrent dans cette catégorie n’ont pas besoin de se conformer aux exigences de transparence auxquelles doivent satisfaire les systèmes plus risqués. Dans la catégorie « risque limité », il existe certaines exigences de transparence pour les systèmes d'IA, tels que les chatbots.
——Le nouveau projet de loi de l'UE sur l'IA divise les programmes d'IA en quatre catégories, de bas en haut : risque faible, risque limité, risque élevé et risque inacceptable.
Dans les catégories d'IA à haut risque avec des exigences strictes en matière de transparence, la supervision sera plus stricte. Selon l'introduction, les catégories à haut risque comprennent les applications de l'IA dans :
les infrastructures critiques, telles que les transports, qui peuvent mettre en danger la vie ou la santé humaine (comme les voitures autonomes)Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!