Maison > Périphériques technologiques > IA > Un projet de loi européen sur l'intelligence artificielle est sur le point d'être présenté, ce qui pourrait affecter la réglementation technologique mondiale

Un projet de loi européen sur l'intelligence artificielle est sur le point d'être présenté, ce qui pourrait affecter la réglementation technologique mondiale

WBOY
Libérer: 2023-04-11 22:40:14
avant
1271 Les gens l'ont consulté

Le projet de loi sur l'intelligence artificielle vise à créer un cadre réglementaire et juridique commun pour l'utilisation de l'intelligence artificielle, y compris la manière dont elle est développée, les raisons pour lesquelles les entreprises peuvent l'utiliser et les conséquences juridiques du non-respect des exigences. Le projet de loi pourrait obliger les entreprises à obtenir une approbation dans certaines circonstances avant d'adopter l'intelligence artificielle, interdire certaines utilisations de l'intelligence artificielle jugées trop risquées et créer une liste publique d'autres utilisations à haut risque de l'intelligence artificielle.

Un projet de loi européen sur l'intelligence artificielle est sur le point d'être présenté, ce qui pourrait affecter la réglementation technologique mondiale

Dans un rapport officiel sur la loi, la Commission européenne a déclaré qu'à un niveau général, la loi cherche à codifier le paradigme fiable de l'intelligence artificielle de l'UE. Ce paradigme « exige que l’IA soit forte sur le plan juridique, éthique et technologique, tout en respectant les valeurs démocratiques, les droits de l’homme et l’État de droit ».

Le cadre réglementaire proposé pour l'intelligence artificielle poursuit les objectifs suivants :

1. Garantir que les systèmes d'intelligence artificielle déployés et utilisés sur le marché de l'UE sont sûrs et respectent les droits fondamentaux juridiques existants et les valeurs de l'UE ; promouvoir l'investissement et l'innovation dans l'intelligence artificielle ;

3. Renforcer la gouvernance et l'application efficace des lois existantes sur les droits fondamentaux et la sécurité applicables aux systèmes d'IA ;

4. Promouvoir le développement du marché des applications d'intelligence artificielle légales, sûres et fiables ; empêcher la différenciation du marché.

Bien que de nombreux détails de la nouvelle loi soient encore en suspens, la clé étant la définition de l'IA, le facteur central semble être son « cadre de sécurité des produits » qui divise les futurs produits d'IA en quatre catégories de niveaux de sécurité applicables à toutes les industries. .

Selon le rapport 2021 de la Commission européenne sur la nouvelle loi compilé par Maruritz Kop du Stanford-Vienna Transatlantic Technology Law Forum, le bas de la « pyramide de criticité » est le système le moins risqué. Les applications d’IA qui entrent dans cette catégorie n’ont pas besoin de se conformer aux exigences de transparence auxquelles doivent satisfaire les systèmes plus risqués. Dans la catégorie « risque limité », il existe certaines exigences de transparence pour les systèmes d'IA, tels que les chatbots.

Un projet de loi européen sur lintelligence artificielle est sur le point dêtre présenté, ce qui pourrait affecter la réglementation technologique mondiale——Le nouveau projet de loi de l'UE sur l'IA divise les programmes d'IA en quatre catégories, de bas en haut : risque faible, risque limité, risque élevé et risque inacceptable.

Dans les catégories d'IA à haut risque avec des exigences strictes en matière de transparence, la supervision sera plus stricte. Selon l'introduction, les catégories à haut risque comprennent les applications de l'IA dans :

les infrastructures critiques, telles que les transports, qui peuvent mettre en danger la vie ou la santé humaine (comme les voitures autonomes)
  • l'éducation ou la formation professionnelle qui affecte l'éducation personnelle ; ou des réalisations professionnelles (telles que les résultats des examens) ;
  • Composants de sécurité des produits (par exemple, chirurgie assistée par robot)
  • Emploi, gestion des employés, travail indépendant (par exemple, CV, logiciel de classification de CV) ; (par exemple, les cotes de crédit) ;
  • Cas d'utilisation des forces de l'ordre (par exemple, évaluation des preuves) ;
  • Immigration, gestion des frontières (y compris l'évaluation de l'authenticité des passeports) ;
  • Processus équitables et démocratiques (par exemple, application de la loi à un ensemble spécifique de faits) ;
  • Systèmes de surveillance (par exemple surveillance biométrique et reconnaissance faciale).
  • La quatrième catégorie en haut de la flèche est celle des systèmes d'intelligence artificielle présentant un « risque inacceptable ». Ces applications sont fondamentalement illégales car elles présentent trop de risques. Des exemples de telles applications incluent les systèmes permettant de manipuler le comportement ou les personnes ou les « groupes spécifiquement vulnérables », la notation sociale et les systèmes biométriques en temps réel et à distance.
  • Les catégories à risque plus élevé seront probablement au centre des efforts de nombreuses entreprises pour garantir la transparence et la conformité. Le projet de loi de l’UE sur l’intelligence artificielle conseillera aux entreprises de suivre quatre étapes avant de lancer des produits ou services d’IA appartenant à des catégories à haut risque.

Développer des systèmes d'IA à haut risque, de préférence en interne d'abord, en utilisant une évaluation de l'impact de l'IA et un code de conduite supervisé par une équipe inclusive et multidisciplinaire.

Les systèmes d'intelligence artificielle à haut risque doivent faire l'objet d'une évaluation de conformité et d'une approbation, et continuer à se conformer aux exigences de la loi européenne sur l'IA tout au long de leur cycle de vie. Certaines organisations extérieures au système seront impliquées dans des audits d’évaluation de la conformité. Ce processus dynamique assure l’analyse comparative, le suivi et la validation. De plus, pour les systèmes dynamiques d’IA à haut risque, l’étape 2 doit être répétée.
  1. L'enregistrement des systèmes d'IA indépendants à haut risque aura lieu dans une base de données dédiée de l'UE.
  2. Une déclaration de conformité doit être signée et les systèmes d'IA à haut risque doivent porter le marquage CE.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal