Maison > Périphériques technologiques > IA > le corps du texte

Dans l'environnement actuel de l'intelligence artificielle, qu'est-ce que l'IA explicable ?

WBOY
Libérer: 2023-04-11 22:01:15
avant
1487 Les gens l'ont consulté

Dans l'environnement actuel de l'intelligence artificielle, qu'est-ce que l'IA explicable ?

À mesure que l'intelligence artificielle (IA) devient de plus en plus sophistiquée et largement adoptée dans la société, l'un des ensembles de processus et de méthodes les plus critiques est l'IA explicable, parfois appelée XAI.

L'IA explicable peut être définie comme :

Un ensemble de processus et de méthodes qui aident les utilisateurs humains à comprendre et à faire confiance aux résultats des algorithmes d'apprentissage automatique.

Comme vous pouvez le deviner, cette interprétabilité est très importante. Étant donné que les algorithmes d’IA contrôlent de nombreux domaines, cela entraîne des risques de biais, d’algorithmes défectueux et d’autres problèmes. En permettant la transparence grâce à l’explicabilité, le monde peut véritablement exploiter la puissance de l’intelligence artificielle.

L'IA explicable, comme son nom l'indique, permet de décrire un modèle d'IA, son impact et ses biais potentiels. Il joue également un rôle dans la description de l’exactitude, de l’équité, de la transparence des modèles et des résultats des processus décisionnels basés sur l’IA.

Les organisations d’aujourd’hui basées sur l’IA devraient toujours adopter des processus d’IA explicables pour contribuer à renforcer la confiance dans les modèles d’IA en production. Dans l’environnement actuel de l’intelligence artificielle, l’IA explicable est également essentielle pour être une entreprise responsable.

Les systèmes d’intelligence artificielle d’aujourd’hui étant si avancés, les humains effectuent souvent un processus informatique pour retracer comment l’algorithme est arrivé à ses résultats. Ce processus devient une « boîte noire », c’est-à-dire qu’il ne peut être compris. Lorsque ces modèles inexplicables sont développés directement à partir de données, personne ne peut comprendre ce qui se passe.

Grâce à une IA explicable pour comprendre comment fonctionne le système d'IA, les développeurs peuvent garantir que le système peut fonctionner correctement. Cela peut également contribuer à garantir que les modèles sont conformes aux normes réglementaires et offrir des possibilités de remise en question ou de modification des modèles.

DIFFÉRENCES ENTRE L'IA ET Chaque décision en cours de route est traçable et explicable. En revanche, l’IA conventionnelle utilise souvent des algorithmes de ML pour obtenir des résultats, mais il est impossible de comprendre pleinement comment l’algorithme obtient les résultats. Dans le cas de l’IA conventionnelle, il est difficile d’en vérifier l’exactitude, ce qui entraîne une perte de contrôle, de responsabilité et d’auditabilité.

Avantages de l'IA explicable

Il existe de nombreux avantages pour toute organisation cherchant à adopter l'IA explicable, tels que :

Résultats plus rapides : l'IA explicable permet aux organisations de surveiller et de gérer systématiquement les modèles pour optimiser les résultats commerciaux. Les performances du modèle peuvent être continuellement évaluées et améliorées, et le développement du modèle peut être affiné.
  • Réduire les risques : en adoptant un processus d'IA explicable, vous pouvez vous assurer que le modèle d'IA est explicable et transparent. Les besoins en matière de réglementation, de conformité, de risque et autres peuvent être gérés tout en minimisant les frais généraux liés aux inspections manuelles. Tout cela contribue également à réduire le risque de biais involontaire.
  • Construire la confiance : l'IA explicable aide à renforcer la confiance dans l'IA de production. Les modèles d’IA peuvent être mis en production rapidement, l’interprétabilité peut être garantie et le processus d’évaluation des modèles peut être simplifié et rendu plus transparent.
  • Technologies d'IA explicables

Il existe certaines technologies XAI que toutes les organisations devraient prendre en compte, et il existe trois approches principales : l'exactitude prédictive, la traçabilité et la compréhension des décisions.

La première approche, l'exactitude des prédictions, est la clé pour utiliser avec succès l'intelligence artificielle dans les opérations quotidiennes. Des simulations peuvent être effectuées et la sortie XAI comparée aux résultats de l'ensemble de données d'entraînement, ce qui peut aider à déterminer l'exactitude des prédictions. L’une des techniques les plus populaires pour y parvenir est appelée LIME (Locally Interpretable Model-Independent Explanation), qui est une technique permettant d’interpréter les prédictions du classificateur via des algorithmes d’apprentissage automatique.
  • La deuxième approche est la traçabilité, qui est obtenue en limitant la manière dont les décisions sont prises et en établissant une portée plus étroite pour les règles et fonctionnalités d'apprentissage automatique. L'une des technologies de traçabilité les plus courantes est DeepLIFT, ou Deep Learning Important Features. DeepLIFT compare l'activation de chaque neurone à son neurone de référence tout en démontrant des liens traçables entre chaque neurone activé. Il montre également les dépendances les uns par rapport aux autres.
  • La troisième méthode est la compréhension de la prise de décision, qui diffère des deux premières méthodes en ce sens qu'elle est centrée sur l'humain. La compréhension des décisions implique d’éduquer les organisations, en particulier les équipes travaillant avec l’IA, afin qu’elles puissent comprendre comment et pourquoi l’IA prend des décisions. Cette approche est essentielle pour instaurer la confiance dans le système.
  • Principes de l'IA explicable

Pour mieux comprendre XAI et ses principes, le National Institute of Standards and Technology (NIST), qui fait partie du département américain du Commerce, fournit des définitions des quatre principes de l'IA explicable :

  • Les systèmes d'IA doivent fournir des preuves, un support ou un raisonnement pour chaque résultat.
  • Les systèmes d'IA doivent donner des explications que les utilisateurs peuvent comprendre.
  • L'explication doit refléter avec précision le processus utilisé par le système pour obtenir son résultat.
  • Les systèmes d'IA ne doivent fonctionner que dans les conditions pour lesquelles ils ont été conçus et ne doivent pas fournir de résultats s'ils ne sont pas suffisamment fiables dans les résultats.

Ces principes peuvent être organisés comme suit :

  • Significatif : afin de mettre en œuvre des principes significatifs, les utilisateurs doivent comprendre les explications fournies. Cela signifie également que, compte tenu de l’utilisation des algorithmes d’IA par différents types d’utilisateurs, il peut y avoir plusieurs interprétations. Par exemple, dans le cas des voitures autonomes, une explication pourrait ressembler à ceci... "L'IA a classé le sac en plastique sur la route comme un rocher et a donc pris des mesures pour éviter de le heurter." s'applique aux pilotes, pas très utile pour les développeurs d'IA cherchant à corriger ce problème. Dans ce cas, le développeur doit comprendre pourquoi l’erreur de classification s’est produite.
  • Précision de l'explication : contrairement à la précision de la sortie, la précision de l'explication implique que l'algorithme d'IA explique avec précision comment il est arrivé à sa sortie. Par exemple, si un algorithme d'approbation de prêt interprète la décision en fonction du revenu du demandeur alors qu'en fait elle est basée sur la résidence du demandeur, cette interprétation sera alors inexacte.
  • Limitation des connaissances : la limite des connaissances de l’IA peut être atteinte de deux manières, ce qui implique une contribution au-delà de l’expertise du système. Par exemple, si vous construisez un système pour classer les espèces d'oiseaux et que vous recevez l'image d'une « pomme », il devrait être capable d'interpréter que l'entrée n'est pas un oiseau. Si le système reçoit une image floue, il devrait être en mesure de signaler qu'il ne peut pas identifier l'oiseau sur l'image ou que son identification est très faible.

Le rôle des données dans l'IA explicable

L'un des composants les plus importants de l'IA explicable sont les données.

Selon Google, en ce qui concerne les données et l'IA explicable, « un système d'IA est mieux compris à travers les données et le processus de formation sous-jacents, ainsi que le modèle d'IA qui en résulte. Cette compréhension repose sur la cartographie du modèle d'IA entraîné avec les ensembles de données précis utilisés. » de s'y entraîner, ainsi que la capacité d'examiner de près les données.

Pour améliorer l'interprétabilité de votre modèle, il est important de prêter attention aux données d'entraînement. L'équipe doit identifier la source des données utilisées pour entraîner l'algorithme, la légalité et l'éthique de l'obtention des données, tout biais potentiel dans les données et les mesures qui peuvent être prises pour atténuer tout biais.

Un autre aspect clé des données et de XAI est que les données qui ne sont pas pertinentes pour le système doivent être exclues. Pour y parvenir, les données non pertinentes ne doivent pas être incluses dans l'ensemble de formation ou les données d'entrée.

Google recommande un ensemble de pratiques pour parvenir à l'explicabilité et à la responsabilité :

  • Planifier les choix pour rechercher l'explicabilité
  • Traiter l'explicabilité comme un élément essentiel de l'expérience utilisateur
  • Concevoir des modèles interprétables
  • Choisir des métriques pour refléter l'objectif final et l'objectif ultime. mission
  • Comprendre le modèle formé
  • Communiquer des explications aux utilisateurs du modèle
  • Effectuer des tests approfondis pour garantir que le système d'IA fonctionne comme prévu

En suivant ces pratiques recommandées, les organisations peuvent garantir la mise en œuvre de l'IA explicable. C’est un élément clé pour toute organisation axée sur l’IA dans l’environnement actuel.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal