L'intelligence artificielle (IA) a un énorme potentiel pour améliorer tous les aspects de la société grâce à l'innovation, des systèmes d'ingénierie traditionnels aux soins de santé en passant par les processus créatifs dans les arts et le divertissement. À Hollywood, par exemple, les studios utilisent l’IA pour révéler et mesurer les préjugés dans les scripts : des outils dont les producteurs et les écrivains ont besoin pour créer des médias plus justes et plus inclusifs.
Cependant, l’intelligence de l’IA dépend des données sur lesquelles elle est formée, qui reflètent les préjugés de la vie réelle. Pour éviter de perpétuer les stéréotypes et l’exclusivité, les technologues abordent les questions d’équité et d’inclusion dans la vie réelle et dans l’innovation.
Alors que les technologues cherchent à utiliser l’IA pour trouver des solutions centrées sur l’humain afin d’optimiser les pratiques industrielles et la vie quotidienne, il est essentiel d’être conscient que nos préjugés innés peuvent avoir des conséquences inattendues.
« En tant qu'humains, nous sommes très partiaux », a déclaré Ammanath, leader mondial du Deloitte AI Institute et responsable de l'éthique de la technologie et de l'IA chez Deloitte. "À mesure que ces préjugés sont ancrés dans le système, certaines parties de la société risquent d'être laissées pour compte - les minorités sous-représentées, les personnes qui n'ont pas accès à certains outils - ce qui pourrait conduire à davantage d'inégalités dans le monde."
Si les systèmes sont formés avec des données biaisées, ou si les chercheurs ne parviennent pas à considérer comment leurs propres perspectives influencent l'orientation de la recherche, alors les bons projets qui démarrent - créant des résultats égaux ou atténuant les inégalités passées - finissent quand même par des biais. Ammanath a déclaré que jusqu'à présent, les ajustements aux biais de l'IA ont généralement eu lieu en réponse à la découverte d'algorithmes biaisés ou à l'émergence de données démographiques sous-représentées après coup. Cependant, les entreprises doivent désormais apprendre à être proactives, à atténuer ces problèmes dès le début et à assumer la responsabilité des faux pas dans leurs efforts en matière d’IA. Biais algorithmique dans l'intelligence artificielleEn intelligence artificielle, le biais se présente sous la forme d'un biais algorithmique. « Le biais algorithmique est un ensemble de défis liés à la création de modèles d'IA », explique Kirk Bresniker, architecte en chef chez HP Labs et vice-président de Hewlett Packard Enterprise (HPE). « Nous pouvons rencontrer des défis parce que nos algorithmes ne peuvent pas gérer différentes entrées, ou parce que nous n'avons pas collecté un ensemble de données suffisamment large pour l'intégrer dans notre formation de modèle. Dans les deux cas, nous n'avons pas suffisamment de données. » Le biais algorithmique peut également provenir de un traitement inexact, des données modifiées ou une personne injectant de faux signaux. Qu’il soit intentionnel ou non, ce biais peut conduire à des résultats injustes qui peuvent privilégier un groupe ou en exclure complètement un autre. Par exemple, Ammanath décrit un algorithme conçu pour identifier différents types de chaussures, telles que des tongs, des sandales, des chaussures habillées et des baskets. Cependant, lors de sa sortie, l'algorithme n'a pas réussi à reconnaître les chaussures pour femmes à talons hauts. L'équipe de développement était composée d'un groupe de jeunes diplômés universitaires, tous des hommes, qui n'avaient jamais pensé à la former aux chaussures pour femmes. « C'est un exemple trivial, mais vous réalisez que l'ensemble des données est limité », a déclaré Ammanath. « Pensez maintenant à un algorithme similaire qui utilise des données historiques pour diagnostiquer une maladie ou une pathologie. Et s’il n’était pas adapté à certains types de corps, à certains sexes ou à certaines races. » « Surtout ? , a-t-elle déclaré : « Si vous n'avez pas cette diversité, vous passez à côté de certains scénarios. » Une meilleure IA signifie l'autorégulation et l'éthique. un défi de taille, d’autant plus que les données deviennent plus concentrées. Le partage de données soulève de nombreuses questions, dont les plus importantes sont la sécurité et la confidentialité. Nathan Schneider, professeur adjoint d'études sur les médias à l'Université du Colorado à Boulder, a déclaré : "Actuellement, nous sommes confrontés à une situation dans laquelle les utilisateurs individuels ont beaucoup moins de pouvoir que les grandes entreprises qui collectent et traitent leurs données. Lois étendues." et les réglementations sont très strictes. Elles peuvent en fin de compte dicter quand et comment les données sont partagées et utilisées. Mais l’innovation n’attendra pas les législateurs. Actuellement, les organisations de développement de l’IA ont la responsabilité d’être de bons gestionnaires des données et de protéger la vie privée des individus tout en s’efforçant de réduire les biais algorithmiques. Ammanath de Deloitte a déclaré que la technologie évolue si rapidement qu'il est impossible de s'appuyer sur des réglementations pour couvrir tous les scénarios possibles. « Nous entrerons dans une ère d’équilibre entre le respect des réglementations existantes et l’autorégulation. » Cette autorégulation signifie relever les normes tout au long de la chaîne d’approvisionnement technologique qui construit les solutions d’IA, des données à la formation en passant par l’utilisation de l’infrastructure nécessaire à leur création. solutions possibles. De plus, les organisations doivent créer des moyens permettant aux individus de tous les départements de faire part de leurs préoccupations concernant les préjugés. Bien qu’il soit impossible d’éliminer complètement les préjugés, les entreprises doivent régulièrement vérifier l’efficacité de leurs solutions d’IA.En raison de la nature hautement contextuelle de l’IA, l’autorégulation sera différente pour chaque entreprise. Par exemple, HPE a développé des lignes directrices éthiques en matière d’IA. Diverses personnes de toute l'entreprise ont passé près d'un an à travailler ensemble pour développer les principes d'IA de l'entreprise, puis à les examiner avec un large éventail d'employés pour s'assurer qu'ils pouvaient être suivis et qu'ils étaient cohérents avec la culture d'entreprise.
Bresniker de HPE a déclaré : "Nous voulons améliorer la compréhension générale de ces problèmes, puis collecter les meilleures pratiques. C'est le travail de chacun - il y a suffisamment de sensibilisation dans ce domaine."
La technologie de l'intelligence artificielle a mûri, de la recherche et du développement à la application pratique et création de valeur, dans tous les secteurs. La pénétration croissante de l’IA dans la société signifie que les entreprises ont désormais la responsabilité éthique de fournir des solutions puissantes, inclusives et accessibles. Cette responsabilité pousse les organisations à examiner, parfois pour la première fois, les données qu’elles intègrent à leurs processus. « Nous voulons que les gens construisent cette vision et aient une confiance mesurable dans les données qui nous parviennent », a déclaré Bresniker. « Ils ont le pouvoir de mettre fin aux inégalités systémiques actuelles et de créer des résultats équitables pour un avenir meilleur
.Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!