Table des matières
Éliminer les préjugés
Loi sur l'éthique et l'intelligence artificielle
Maison Périphériques technologiques IA Le nouveau projet de loi européen sur l'intelligence artificielle renforcera le contrôle éthique

Le nouveau projet de loi européen sur l'intelligence artificielle renforcera le contrôle éthique

Apr 09, 2023 pm 04:51 PM
机器学习 人工智能法案

Le nouveau projet de loi européen sur l'intelligence artificielle renforcera le contrôle éthique

Les questions éthiques liées à l'intelligence artificielle (telles que les préjugés, la transparence et l'explicabilité) deviennent de plus en plus importantes à mesure que l'UE s'oriente vers la mise en œuvre du projet de loi sur l'intelligence artificielle, qui réglementera efficacement l'utilisation de l'intelligence artificielle et des technologies d'apprentissage automatique dans toutes les utilisations de l'industrie. Les experts en IA affirment que c’est le bon moment pour que les utilisateurs d’IA se familiarisent avec les concepts éthiques.

La dernière version de la loi européenne sur l’intelligence artificielle a été introduite l’année dernière et avance actuellement rapidement dans le processus de révision et pourrait être mise en œuvre dès 2023. Alors que la loi est encore en cours d’élaboration, la Commission européenne semble prête à faire des progrès dans la réglementation de l’intelligence artificielle.

Par exemple, la loi fixera de nouvelles exigences pour l'utilisation des systèmes d'intelligence artificielle et interdira totalement certains cas d'utilisation. Les systèmes d’IA dits à haut risque, tels que ceux utilisés dans les voitures autonomes et les systèmes d’aide à la décision dans les domaines de l’éducation, de l’immigration et de l’emploi, obligeront les utilisateurs à réaliser des évaluations d’impact et des audits des applications d’IA. Certains cas d’utilisation de l’IA seront suivis de près dans des bases de données, tandis que d’autres nécessiteront l’approbation d’auditeurs externes avant de pouvoir être utilisés.

Nick Carrel, directeur du conseil en analyse de données chez EPAM Systems, une société d'ingénierie logicielle basée à Newtown, en Pennsylvanie, a déclaré qu'il existe un grand besoin d'inexplicabilité et d'explicabilité dans le cadre d'un engagement MLOps ou d'un engagement de conseil en science des données. Le projet de loi européen sur l'intelligence artificielle pousse également les entreprises à rechercher des informations et des réponses sur l'IA éthique, a-t-il déclaré.

« Il existe actuellement une forte demande pour ce qu’on appelle ML Ops, qui est la science de l’exploitation de modèles d’apprentissage automatique. Nous considérons vraiment l’IA éthique comme l’un des fondements clés de ce processus », a déclaré Carrel. "Nous recevons des demandes supplémentaires de la part de clients... alors qu'ils prennent connaissance de la prochaine législation européenne sur les systèmes d'intelligence artificielle qui entrera en vigueur à la fin de cette année, et ils veulent être préparés

L'inexplicabilité et l'explicabilité sont distinctes mais." notion connexe. L'interprétabilité d'un modèle fait référence à la mesure dans laquelle les humains peuvent comprendre et prédire les décisions qu'un modèle prendra, tandis que l'explicabilité fait référence à la capacité de décrire avec précision le fonctionnement réel d'un modèle. Vous pouvez avoir l'un sans l'autre, explique Andrey Derevyanka, responsable de la science des données et de l'apprentissage automatique chez EPAM Systems.

"Imaginez que vous faites une expérience, peut-être une expérience chimique consistant à mélanger deux liquides. Cette expérience est ouverte à l'interprétation car vous voyez ce que vous faites ici. Vous prenez un objet et ajoutez un autre élément et nous obtenons le résultat", » dit Derevianka. "Mais pour que cette expérience soit interprétable, vous devez connaître la réaction chimique, vous devez savoir comment la réaction est créée, comment elle fonctionne, et vous devez connaître les détails internes du processus."

Derevyanka a dit cela dans. En particulier, les modèles d'apprentissage profond peuvent expliquer mais ne peuvent pas expliquer la situation spécifique. "Vous avez une boîte noire et elle fonctionne d'une certaine manière, mais vous savez que vous ne savez pas ce qu'elle contient", a-t-il déclaré. "Mais vous pouvez expliquer : si vous donnez cette contribution, vous obtenez ce résultat."

Éliminer les préjugés

Les préjugés sont un autre sujet important en matière d'IA éthique. Il est impossible d’éliminer complètement les biais des données, mais il est important que les organisations s’efforcent d’éliminer les biais des modèles d’IA, a déclaré Umit Cakmak, responsable des données et de l’IA chez EPAM Systems.

«Ces choses doivent être analysées au fil du temps», a déclaré Cakmak. "C'est un processus parce que les biais sont ancrés dans les données historiques. Il n'y a aucun moyen d'éliminer les biais des données. Ainsi, en tant qu'entreprise, vous devez mettre en place des processus spécifiques afin que vos décisions s'améliorent au fil du temps, ce qui améliorera la qualité de vos données au fil du temps, vous serez donc moins biaisé au fil du temps. , ainsi qu'aux clients et aux dirigeants qui mettent leur réputation en danger, que les modèles d'IA ne prendront pas de mauvaises décisions basées sur des données biaisées.

Il existe de nombreux exemples dans la littérature de biais de données s'infiltrant dans des systèmes de prise de décision automatisés, y compris des préjugés raciaux apparaissant dans les modèles utilisés pour évaluer les performances des employés ou sélectionner des candidats à partir de CV, a déclaré Cakmak. Il est important de pouvoir montrer comment le modèle parvient à ses conclusions pour montrer que des mesures ont été prises pour éliminer les biais de données dans le modèle.

Cakmak rappelle comment un manque d'explicabilité a conduit une entreprise de soins de santé à abandonner un système d'IA développé pour le diagnostic du cancer. "L'IA a fonctionné dans une certaine mesure, mais le projet a ensuite été annulé parce qu'ils ne parvenaient pas à instaurer la confiance dans l'algorithme", a-t-il déclaré. « Si vous ne pouvez pas expliquer pourquoi ce résultat se produit, alors vous ne pouvez pas procéder au traitement.

EPAM Systems aide les entreprises à mettre en œuvre l’intelligence artificielle de manière fiable. » L'entreprise suit généralement un ensemble de directives spécifiques, commençant par la manière de collecter des données, de préparer un modèle d'apprentissage automatique, puis de valider et d'interpréter le modèle. Veiller à ce que les équipes d'IA réussissent et documentent ces contrôles, ou « portes de qualité », est un élément important de l'IA éthique, a déclaré Cakmak.

Loi sur l'éthique et l'intelligence artificielle

Steven Mills, responsable de l'éthique de l'IA pour Global GAMMA chez Boston Consulting Group, a déclaré que les entreprises les plus grandes et les mieux gérées sont déjà conscientes de la nécessité d'une IA responsable.

Cependant, à mesure que le projet de loi sur l'IA se rapproche de la loi, nous verrons de plus en plus d'entreprises dans le monde accélérer leurs projets d'IA responsable pour s'assurer qu'elles ne tombent pas sous le coup de l'environnement réglementaire changeant et des nouvelles attentes.

« De nombreuses entreprises ont commencé à mettre en œuvre l'IA et se rendent compte que nous n'avons pas autant d'espoir que nous le souhaiterions quant à toutes les conséquences imprévues potentielles et que nous devons y remédier le plus rapidement possible », Mills "C'est la chose la plus importante. Les gens n'ont pas l'impression de ne pas savoir comment ils l'appliquent.

La pression pour mettre en œuvre l'IA de manière éthique vient du sommet de l'organisation." Dans certains cas, cela vient d'investisseurs extérieurs qui ne veulent pas que leur risque d'investissement soit compromis en utilisant l'IA de manière inappropriée, a déclaré Mills.

« Nous observons une tendance selon laquelle les investisseurs, qu’il s’agisse d’entreprises publiques ou de fonds de capital-risque, veulent s’assurer que l’IA est construite de manière responsable », a-t-il déclaré. « Cela n’est peut-être pas évident pour tout le monde. , mais en coulisses, certaines de ces sociétés de capital-risque réfléchissent à l'endroit où elles placent leur argent pour s'assurer que ces startups font les choses de la bonne manière », a déclaré Carrel. Les détails sont également vagues, mais la loi a le potentiel de clarifier la situation. utilisation de l’intelligence artificielle, ce qui profiterait à la fois aux entreprises et aux consommateurs.

«Ma première réaction a été que cela allait être très rigoureux», a déclaré Carrel, qui a mis en œuvre des modèles d'apprentissage automatique dans le secteur des services financiers avant de rejoindre EPAM Systems. « Cela fait des années que j'essaie de repousser les limites de la prise de décision en matière de services financiers, et tout à coup, une législation apparaît qui porterait atteinte au travail que nous effectuons

Mais plus il examinait la loi en attente, plus il aimait ce qui se passait.

"Je pense que cela augmentera également progressivement la confiance du public dans l'utilisation de l'IA dans différentes industries", a déclaré Carrel. "La législation obligeant à enregistrer les systèmes d'IA à haut risque dans l'UE signifie que vous savez qu'il y en aura. un système d'IA à très haut risque quelque part. Une liste claire de tous les systèmes d'IA à haut risque utilisés. Cela donne beaucoup de pouvoir aux auditeurs, ce qui signifie que les vilains garçons et les mauvais joueurs seront progressivement punis, et nous espérons qu'avec le temps, nous créerons davantage d'opportunités pour ceux qui souhaitent utiliser l'IA et l'apprentissage automatique pour de meilleures causes. manière responsable. »

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Comment réparer l'audio si vous n'entendez personne
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Commandes de chat et comment les utiliser
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Cet article vous amènera à comprendre SHAP : explication du modèle pour l'apprentissage automatique Cet article vous amènera à comprendre SHAP : explication du modèle pour l'apprentissage automatique Jun 01, 2024 am 10:58 AM

Dans les domaines de l’apprentissage automatique et de la science des données, l’interprétabilité des modèles a toujours été au centre des préoccupations des chercheurs et des praticiens. Avec l'application généralisée de modèles complexes tels que l'apprentissage profond et les méthodes d'ensemble, la compréhension du processus décisionnel du modèle est devenue particulièrement importante. Explainable AI|XAI contribue à renforcer la confiance dans les modèles d'apprentissage automatique en augmentant la transparence du modèle. L'amélioration de la transparence des modèles peut être obtenue grâce à des méthodes telles que l'utilisation généralisée de plusieurs modèles complexes, ainsi que les processus décisionnels utilisés pour expliquer les modèles. Ces méthodes incluent l'analyse de l'importance des caractéristiques, l'estimation de l'intervalle de prédiction du modèle, les algorithmes d'interprétabilité locale, etc. L'analyse de l'importance des fonctionnalités peut expliquer le processus de prise de décision du modèle en évaluant le degré d'influence du modèle sur les fonctionnalités d'entrée. Estimation de l’intervalle de prédiction du modèle

Identifier le surapprentissage et le sous-apprentissage grâce à des courbes d'apprentissage Identifier le surapprentissage et le sous-apprentissage grâce à des courbes d'apprentissage Apr 29, 2024 pm 06:50 PM

Cet article présentera comment identifier efficacement le surajustement et le sous-apprentissage dans les modèles d'apprentissage automatique grâce à des courbes d'apprentissage. Sous-ajustement et surajustement 1. Surajustement Si un modèle est surentraîné sur les données de sorte qu'il en tire du bruit, alors on dit que le modèle est en surajustement. Un modèle surajusté apprend chaque exemple si parfaitement qu'il classera mal un exemple inédit/inédit. Pour un modèle surajusté, nous obtiendrons un score d'ensemble d'entraînement parfait/presque parfait et un score d'ensemble/test de validation épouvantable. Légèrement modifié : "Cause du surajustement : utilisez un modèle complexe pour résoudre un problème simple et extraire le bruit des données. Parce qu'un petit ensemble de données en tant qu'ensemble d'entraînement peut ne pas représenter la représentation correcte de toutes les données."

Transparent! Une analyse approfondie des principes des principaux modèles de machine learning ! Transparent! Une analyse approfondie des principes des principaux modèles de machine learning ! Apr 12, 2024 pm 05:55 PM

En termes simples, un modèle d’apprentissage automatique est une fonction mathématique qui mappe les données d’entrée à une sortie prédite. Plus précisément, un modèle d'apprentissage automatique est une fonction mathématique qui ajuste les paramètres du modèle en apprenant à partir des données d'entraînement afin de minimiser l'erreur entre la sortie prédite et la véritable étiquette. Il existe de nombreux modèles dans l'apprentissage automatique, tels que les modèles de régression logistique, les modèles d'arbre de décision, les modèles de machines à vecteurs de support, etc. Chaque modèle a ses types de données et ses types de problèmes applicables. Dans le même temps, il existe de nombreux points communs entre les différents modèles, ou il existe une voie cachée pour l’évolution du modèle. En prenant comme exemple le perceptron connexionniste, en augmentant le nombre de couches cachées du perceptron, nous pouvons le transformer en un réseau neuronal profond. Si une fonction noyau est ajoutée au perceptron, elle peut être convertie en SVM. celui-ci

L'évolution de l'intelligence artificielle dans l'exploration spatiale et l'ingénierie des établissements humains L'évolution de l'intelligence artificielle dans l'exploration spatiale et l'ingénierie des établissements humains Apr 29, 2024 pm 03:25 PM

Dans les années 1950, l’intelligence artificielle (IA) est née. C’est à ce moment-là que les chercheurs ont découvert que les machines pouvaient effectuer des tâches similaires à celles des humains, comme penser. Plus tard, dans les années 1960, le Département américain de la Défense a financé l’intelligence artificielle et créé des laboratoires pour poursuivre son développement. Les chercheurs trouvent des applications à l’intelligence artificielle dans de nombreux domaines, comme l’exploration spatiale et la survie dans des environnements extrêmes. L'exploration spatiale est l'étude de l'univers, qui couvre l'ensemble de l'univers au-delà de la terre. L’espace est classé comme environnement extrême car ses conditions sont différentes de celles de la Terre. Pour survivre dans l’espace, de nombreux facteurs doivent être pris en compte et des précautions doivent être prises. Les scientifiques et les chercheurs pensent qu'explorer l'espace et comprendre l'état actuel de tout peut aider à comprendre le fonctionnement de l'univers et à se préparer à d'éventuelles crises environnementales.

Implémentation d'algorithmes d'apprentissage automatique en C++ : défis et solutions courants Implémentation d'algorithmes d'apprentissage automatique en C++ : défis et solutions courants Jun 03, 2024 pm 01:25 PM

Les défis courants rencontrés par les algorithmes d'apprentissage automatique en C++ incluent la gestion de la mémoire, le multithread, l'optimisation des performances et la maintenabilité. Les solutions incluent l'utilisation de pointeurs intelligents, de bibliothèques de threads modernes, d'instructions SIMD et de bibliothèques tierces, ainsi que le respect des directives de style de codage et l'utilisation d'outils d'automatisation. Des cas pratiques montrent comment utiliser la bibliothèque Eigen pour implémenter des algorithmes de régression linéaire, gérer efficacement la mémoire et utiliser des opérations matricielles hautes performances.

IA explicable : Expliquer les modèles IA/ML complexes IA explicable : Expliquer les modèles IA/ML complexes Jun 03, 2024 pm 10:08 PM

Traducteur | Revu par Li Rui | Chonglou Les modèles d'intelligence artificielle (IA) et d'apprentissage automatique (ML) deviennent aujourd'hui de plus en plus complexes, et le résultat produit par ces modèles est une boîte noire – impossible à expliquer aux parties prenantes. L'IA explicable (XAI) vise à résoudre ce problème en permettant aux parties prenantes de comprendre comment fonctionnent ces modèles, en s'assurant qu'elles comprennent comment ces modèles prennent réellement des décisions et en garantissant la transparence des systèmes d'IA, la confiance et la responsabilité pour résoudre ce problème. Cet article explore diverses techniques d'intelligence artificielle explicable (XAI) pour illustrer leurs principes sous-jacents. Plusieurs raisons pour lesquelles l’IA explicable est cruciale Confiance et transparence : pour que les systèmes d’IA soient largement acceptés et fiables, les utilisateurs doivent comprendre comment les décisions sont prises

Cinq écoles d'apprentissage automatique que vous ne connaissez pas Cinq écoles d'apprentissage automatique que vous ne connaissez pas Jun 05, 2024 pm 08:51 PM

L'apprentissage automatique est une branche importante de l'intelligence artificielle qui donne aux ordinateurs la possibilité d'apprendre à partir de données et d'améliorer leurs capacités sans être explicitement programmés. L'apprentissage automatique a un large éventail d'applications dans divers domaines, de la reconnaissance d'images et du traitement du langage naturel aux systèmes de recommandation et à la détection des fraudes, et il change notre façon de vivre. Il existe de nombreuses méthodes et théories différentes dans le domaine de l'apprentissage automatique, parmi lesquelles les cinq méthodes les plus influentes sont appelées les « Cinq écoles d'apprentissage automatique ». Les cinq grandes écoles sont l’école symbolique, l’école connexionniste, l’école évolutionniste, l’école bayésienne et l’école analogique. 1. Le symbolisme, également connu sous le nom de symbolisme, met l'accent sur l'utilisation de symboles pour le raisonnement logique et l'expression des connaissances. Cette école de pensée estime que l'apprentissage est un processus de déduction inversée, à travers les connaissances existantes.

Flash Attention est-il stable ? Meta et Harvard ont constaté que les écarts de poids de leur modèle fluctuaient de plusieurs ordres de grandeur. Flash Attention est-il stable ? Meta et Harvard ont constaté que les écarts de poids de leur modèle fluctuaient de plusieurs ordres de grandeur. May 30, 2024 pm 01:24 PM

MetaFAIR s'est associé à Harvard pour fournir un nouveau cadre de recherche permettant d'optimiser le biais de données généré lors de l'apprentissage automatique à grande échelle. On sait que la formation de grands modèles de langage prend souvent des mois et utilise des centaines, voire des milliers de GPU. En prenant comme exemple le modèle LLaMA270B, sa formation nécessite un total de 1 720 320 heures GPU. La formation de grands modèles présente des défis systémiques uniques en raison de l’ampleur et de la complexité de ces charges de travail. Récemment, de nombreuses institutions ont signalé une instabilité dans le processus de formation lors de la formation des modèles d'IA générative SOTA. Elles apparaissent généralement sous la forme de pics de pertes. Par exemple, le modèle PaLM de Google a connu jusqu'à 20 pics de pertes au cours du processus de formation. Le biais numérique est à l'origine de cette imprécision de la formation,

See all articles