« Nous ne voyons pas les choses telles qu’elles sont, nous les voyons simplement telles que nous les voyons. » Elle décrit de manière assez succincte les divers préjugés malheureux qui accompagnent notre cerveau.
En entreprise, les biais d'affinité, les biais de confirmation, les biais d'attribution et l'effet de halo, certaines de ces erreurs de raisonnement sont mieux connues et ne sont en réalité que superficielles. Collectivement, ils laissent derrière eux une série d’offenses et d’erreurs.
Bien sûr, les préjugés humains les plus néfastes sont ceux qui portent préjudice à nos semblables ou contre nous en fonction de l'âge, de la race, du sexe, de la religion ou de l'apparence. Malgré nos efforts pour nous purifier, purifier nos environnements de travail et nos sociétés de ces distorsions, celles-ci imprègnent toujours nos pensées et nos comportements, y compris même les technologies modernes telles que l’intelligence artificielle.
Depuis que l'IA a été déployée pour la première fois dans le recrutement, l'approbation de prêts, la modélisation des primes d'assurance, la reconnaissance faciale, l'application de la loi et une foule d'autres applications, les critiques (de nombreuses raisons) soulignent le tendances biaisées de la technologie.
Par exemple, le nouveau modèle de langage BERT (Bidirectionnel Encoder Representations from Transformers) de Google est un modèle de traitement du langage naturel (NLP) de premier plan que les développeurs peuvent utiliser pour créer leur propre IA. BERT a été initialement construit en utilisant le texte Wikipédia comme source principale. Y a-t-il quelque chose de mal à cela ? Les contributeurs de Wikipédia sont majoritairement des hommes blancs d’Europe et d’Amérique du Nord. En conséquence, l’une des sources les plus importantes de l’IA basée sur le langage s’est présentée avec une perspective biaisée dès sa création.
Des problèmes similaires ont été découverts dans la vision par ordinateur, un autre domaine clé du développement de l'intelligence artificielle. Les ensembles de données de reconnaissance faciale contiennent des centaines de milliers de visages annotés, essentiels au développement d'applications de reconnaissance faciale pour la cybersécurité, les forces de l'ordre et même le service client. Cependant, il s’avère que les développeurs (probablement pour la plupart des hommes blancs d’âge moyen) sont, sans le savoir, meilleurs pour atteindre la précision pour des personnes comme eux. Les femmes, les enfants, les personnes âgées et les personnes de couleur présentaient des taux d’erreur beaucoup plus élevés que les hommes blancs d’âge moyen. En conséquence, IBM, Amazon et Microsoft ont été contraints de cesser de vendre leur technologie de reconnaissance faciale aux forces de l’ordre en 2020, craignant que des préjugés puissent conduire à des identifications erronées des suspects.
Pour en savoir plus, regardez le documentaire important et parfois glaçant Coded Bias.
Cependant, une meilleure compréhension du phénomène de biais dans l'IA suggère que l'IA expose et amplifie simplement les préjugés implicites qui existent déjà mais sont ignorés ou mal compris. L’IA elle-même est immunisée contre la couleur, le sexe, l’âge et d’autres préjugés. Il est moins sensible aux erreurs logiques et aux biais cognitifs qui affligent les humains. La seule raison pour laquelle nous constatons des biais dans l’IA est que les humains l’entraînent parfois avec des erreurs heuristiques et des données biaisées.
Depuis que les biais ci-dessus ont été découverts, toutes les grandes entreprises technologiques ont travaillé dur pour améliorer leurs ensembles de données et éliminer les biais. Une façon d’éliminer les préjugés dans l’IA ? – En utilisant l’intelligence artificielle ! Si cela semble peu probable, poursuivons notre exploration !
L'exemple classique peut être trouvé dans les opportunités d'emploi. Les femmes et les personnes de couleur sont notoirement sous-représentées parmi les opportunités d’emploi les plus convoitées. Ce phénomène s'auto-entretient à mesure que les nouvelles recrues deviennent des hauts dirigeants qui deviennent responsables du recrutement. Le biais d'affinité garantit que « des gens comme moi » continuent d'être embauchés, tandis que le biais d'attribution justifie ces choix en fonction des performances passées des employés.
Mais cela pourrait changer lorsque l’intelligence artificielle jouera un rôle plus important dans le recrutement. Des outils comme Textio, Gender Decoder et Ongig utilisent l’intelligence artificielle pour examiner les préjugés cachés concernant le genre et d’autres caractéristiques. Knockri, Ceridian et Gapjumpers utilisent l’intelligence artificielle pour supprimer ou ignorer les caractéristiques d’identification telles que le sexe, l’origine nationale, la couleur de la peau et l’âge afin que les responsables du recrutement puissent se concentrer uniquement sur les qualifications et l’expérience d’un candidat. Certaines de ces solutions réduisent également les biais de récence, d’affinité et de genre dans le processus d’entretien en évaluant objectivement les compétences générales d’un candidat ou en modifiant la voix d’un candidat au téléphone pour masquer son sexe.
Une approche similaire peut être adoptée dans le monde du capital-risque. Dans le monde du capital-risque, les hommes représentent 80 % des associés, tandis que les femmes ne reçoivent que 2,2 % des investissements, alors qu'elles sont fondatrices de 40 % des nouvelles startups. Par exemple, Founders Factory, un accélérateur de startups britannique, a écrit un logiciel pour sélectionner les candidats au programme en fonction des caractéristiques identifiables du succès d'une startup. De même, F4capital, une organisation à but non lucratif dirigée par des femmes, a développé un score FICO pour les startups afin d'évaluer la maturité, les opportunités et les risques d'une startup afin d'éliminer les biais dans le processus de prise de décision en matière de risque. Cette approche devrait être largement adoptée, non seulement parce qu’elle est éthique, mais aussi parce qu’elle offre de meilleurs rendements – 184 % supérieurs à ceux d’un investissement sans l’aide de l’IA.
L'intelligence artificielle peut également aider à prendre de meilleures décisions en matière de soins de santé. Par exemple, la société de diagnostic médical Flow Health travaille à utiliser l’intelligence artificielle pour surmonter les biais cognitifs que les médecins utilisent souvent pour diagnostiquer les patients. Par exemple, « l’heuristique de disponibilité » encourage les médecins à poser des diagnostics courants mais parfois incorrects, tandis que « l’heuristique d’ancrage » les amène à s’en tenir à un diagnostic initial incorrect même si de nouvelles informations le contredisent. Je crois que l’intelligence artificielle jouera un rôle important dans le monde en évolution rapide de la médecine personnalisée basée sur les données.
L'IA peut même contribuer à réduire des préjugés moins malins, mais néanmoins très puissants, qui obscurcissent souvent notre jugement commercial. Pensez au préjugé (dans les pays anglophones) contre les informations publiées en anglais, au préjugé dans les startups contre les personnes âgées malgré leurs plus grandes connaissances et expériences ; . N’oubliez pas qu’en période de difficultés économiques, les dirigeants de la chaîne d’approvisionnement et les investisseurs de Wall Street prennent des décisions à court terme basées sur l’émotion.
Permettre à l’IA de fonctionner dans tous ces domaines peut détecter efficacement les biais non reconnus dans le processus décisionnel.
Si c'est dans la nature humaine de faire des erreurs, l'IA peut être la solution dont nous avons besoin pour éviter les conséquences coûteuses et contraires à l'éthique de nos préjugés cachés. Mais qu’en est-il de l’interférence de ces biais avec l’IA elle-même ? Comment l’IA peut-elle être une solution utile si elle interprète mal les données biaisées et amplifie les heuristiques humaines biaisées ? L'outil What-If, développé par l'équipe People and AI Research (PAIR) de Google, permet aux développeurs d'explorer les performances de l'IA à l'aide d'une vaste bibliothèque de « mesures d'équité », tandis que l'outil Bias Analyser de PWC, l'outil AI Fairness 360 d'IBM Research et O' Chacun des outils LIME de Reilly nous aide à identifier s'il existe des biais dans notre code d'IA.
Si vous êtes un cadre supérieur ou un membre du conseil d'administration et que vous envisagez la manière dont l'IA pourrait réduire les préjugés dans votre organisation, je vous invite à considérer l'IA comme une nouvelle arme prometteuse dans votre arsenal plutôt que comme une panacée qui résout complètement le problème. . D'un point de vue holistique et pratique, vous devez toujours établir des lignes de base pour réduire les préjugés, former vos employés à reconnaître et éviter les préjugés cachés et recueillir les commentaires externes des clients, des fournisseurs ou des consultants. Les examens biaisés ne sont pas seulement une bonne idée, dans certains cas, ils constituent même la loi.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!