Les questions éthiques liées à l'intelligence artificielle (telles que les préjugés, la transparence et l'explicabilité) deviennent de plus en plus importantes à mesure que l'UE s'oriente vers la mise en œuvre du projet de loi sur l'intelligence artificielle, qui réglementera efficacement l'utilisation de l'intelligence artificielle et des technologies d'apprentissage automatique dans toutes les utilisations de l'industrie. Les experts en IA affirment que c’est le bon moment pour que les utilisateurs d’IA se familiarisent avec les concepts éthiques.
La dernière version de la loi européenne sur l’intelligence artificielle a été introduite l’année dernière et avance actuellement rapidement dans le processus de révision et pourrait être mise en œuvre dès 2023. Alors que la loi est encore en cours d’élaboration, la Commission européenne semble prête à faire des progrès dans la réglementation de l’intelligence artificielle.
Par exemple, la loi fixera de nouvelles exigences pour l'utilisation des systèmes d'intelligence artificielle et interdira totalement certains cas d'utilisation. Les systèmes d’IA dits à haut risque, tels que ceux utilisés dans les voitures autonomes et les systèmes d’aide à la décision dans les domaines de l’éducation, de l’immigration et de l’emploi, obligeront les utilisateurs à réaliser des évaluations d’impact et des audits des applications d’IA. Certains cas d’utilisation de l’IA seront suivis de près dans des bases de données, tandis que d’autres nécessiteront l’approbation d’auditeurs externes avant de pouvoir être utilisés.
Nick Carrel, directeur du conseil en analyse de données chez EPAM Systems, une société d'ingénierie logicielle basée à Newtown, en Pennsylvanie, a déclaré qu'il existe un grand besoin d'inexplicabilité et d'explicabilité dans le cadre d'un engagement MLOps ou d'un engagement de conseil en science des données. Le projet de loi européen sur l'intelligence artificielle pousse également les entreprises à rechercher des informations et des réponses sur l'IA éthique, a-t-il déclaré.
« Il existe actuellement une forte demande pour ce qu’on appelle ML Ops, qui est la science de l’exploitation de modèles d’apprentissage automatique. Nous considérons vraiment l’IA éthique comme l’un des fondements clés de ce processus », a déclaré Carrel. "Nous recevons des demandes supplémentaires de la part de clients... alors qu'ils prennent connaissance de la prochaine législation européenne sur les systèmes d'intelligence artificielle qui entrera en vigueur à la fin de cette année, et ils veulent être préparés
L'inexplicabilité et l'explicabilité sont distinctes mais." notion connexe. L'interprétabilité d'un modèle fait référence à la mesure dans laquelle les humains peuvent comprendre et prédire les décisions qu'un modèle prendra, tandis que l'explicabilité fait référence à la capacité de décrire avec précision le fonctionnement réel d'un modèle. Vous pouvez avoir l'un sans l'autre, explique Andrey Derevyanka, responsable de la science des données et de l'apprentissage automatique chez EPAM Systems.
"Imaginez que vous faites une expérience, peut-être une expérience chimique consistant à mélanger deux liquides. Cette expérience est ouverte à l'interprétation car vous voyez ce que vous faites ici. Vous prenez un objet et ajoutez un autre élément et nous obtenons le résultat", » dit Derevianka. "Mais pour que cette expérience soit interprétable, vous devez connaître la réaction chimique, vous devez savoir comment la réaction est créée, comment elle fonctionne, et vous devez connaître les détails internes du processus."
Derevyanka a dit cela dans. En particulier, les modèles d'apprentissage profond peuvent expliquer mais ne peuvent pas expliquer la situation spécifique. "Vous avez une boîte noire et elle fonctionne d'une certaine manière, mais vous savez que vous ne savez pas ce qu'elle contient", a-t-il déclaré. "Mais vous pouvez expliquer : si vous donnez cette contribution, vous obtenez ce résultat."
Les préjugés sont un autre sujet important en matière d'IA éthique. Il est impossible d’éliminer complètement les biais des données, mais il est important que les organisations s’efforcent d’éliminer les biais des modèles d’IA, a déclaré Umit Cakmak, responsable des données et de l’IA chez EPAM Systems.
«Ces choses doivent être analysées au fil du temps», a déclaré Cakmak. "C'est un processus parce que les biais sont ancrés dans les données historiques. Il n'y a aucun moyen d'éliminer les biais des données. Ainsi, en tant qu'entreprise, vous devez mettre en place des processus spécifiques afin que vos décisions s'améliorent au fil du temps, ce qui améliorera la qualité de vos données au fil du temps, vous serez donc moins biaisé au fil du temps. , ainsi qu'aux clients et aux dirigeants qui mettent leur réputation en danger, que les modèles d'IA ne prendront pas de mauvaises décisions basées sur des données biaisées.
Il existe de nombreux exemples dans la littérature de biais de données s'infiltrant dans des systèmes de prise de décision automatisés, y compris des préjugés raciaux apparaissant dans les modèles utilisés pour évaluer les performances des employés ou sélectionner des candidats à partir de CV, a déclaré Cakmak. Il est important de pouvoir montrer comment le modèle parvient à ses conclusions pour montrer que des mesures ont été prises pour éliminer les biais de données dans le modèle.
Cakmak rappelle comment un manque d'explicabilité a conduit une entreprise de soins de santé à abandonner un système d'IA développé pour le diagnostic du cancer. "L'IA a fonctionné dans une certaine mesure, mais le projet a ensuite été annulé parce qu'ils ne parvenaient pas à instaurer la confiance dans l'algorithme", a-t-il déclaré. « Si vous ne pouvez pas expliquer pourquoi ce résultat se produit, alors vous ne pouvez pas procéder au traitement.
EPAM Systems aide les entreprises à mettre en œuvre l’intelligence artificielle de manière fiable. » L'entreprise suit généralement un ensemble de directives spécifiques, commençant par la manière de collecter des données, de préparer un modèle d'apprentissage automatique, puis de valider et d'interpréter le modèle. Veiller à ce que les équipes d'IA réussissent et documentent ces contrôles, ou « portes de qualité », est un élément important de l'IA éthique, a déclaré Cakmak.
Steven Mills, responsable de l'éthique de l'IA pour Global GAMMA chez Boston Consulting Group, a déclaré que les entreprises les plus grandes et les mieux gérées sont déjà conscientes de la nécessité d'une IA responsable.
Cependant, à mesure que le projet de loi sur l'IA se rapproche de la loi, nous verrons de plus en plus d'entreprises dans le monde accélérer leurs projets d'IA responsable pour s'assurer qu'elles ne tombent pas sous le coup de l'environnement réglementaire changeant et des nouvelles attentes.
« De nombreuses entreprises ont commencé à mettre en œuvre l'IA et se rendent compte que nous n'avons pas autant d'espoir que nous le souhaiterions quant à toutes les conséquences imprévues potentielles et que nous devons y remédier le plus rapidement possible », Mills "C'est la chose la plus importante. Les gens n'ont pas l'impression de ne pas savoir comment ils l'appliquent.
La pression pour mettre en œuvre l'IA de manière éthique vient du sommet de l'organisation." Dans certains cas, cela vient d'investisseurs extérieurs qui ne veulent pas que leur risque d'investissement soit compromis en utilisant l'IA de manière inappropriée, a déclaré Mills.
« Nous observons une tendance selon laquelle les investisseurs, qu’il s’agisse d’entreprises publiques ou de fonds de capital-risque, veulent s’assurer que l’IA est construite de manière responsable », a-t-il déclaré. « Cela n’est peut-être pas évident pour tout le monde. , mais en coulisses, certaines de ces sociétés de capital-risque réfléchissent à l'endroit où elles placent leur argent pour s'assurer que ces startups font les choses de la bonne manière », a déclaré Carrel. Les détails sont également vagues, mais la loi a le potentiel de clarifier la situation. utilisation de l’intelligence artificielle, ce qui profiterait à la fois aux entreprises et aux consommateurs.
«Ma première réaction a été que cela allait être très rigoureux», a déclaré Carrel, qui a mis en œuvre des modèles d'apprentissage automatique dans le secteur des services financiers avant de rejoindre EPAM Systems. « Cela fait des années que j'essaie de repousser les limites de la prise de décision en matière de services financiers, et tout à coup, une législation apparaît qui porterait atteinte au travail que nous effectuons
Mais plus il examinait la loi en attente, plus il aimait ce qui se passait.
"Je pense que cela augmentera également progressivement la confiance du public dans l'utilisation de l'IA dans différentes industries", a déclaré Carrel. "La législation obligeant à enregistrer les systèmes d'IA à haut risque dans l'UE signifie que vous savez qu'il y en aura. un système d'IA à très haut risque quelque part. Une liste claire de tous les systèmes d'IA à haut risque utilisés. Cela donne beaucoup de pouvoir aux auditeurs, ce qui signifie que les vilains garçons et les mauvais joueurs seront progressivement punis, et nous espérons qu'avec le temps, nous créerons davantage d'opportunités pour ceux qui souhaitent utiliser l'IA et l'apprentissage automatique pour de meilleures causes. manière responsable. »
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!