Traducteur | Li Rui
Chonglou
Les modèles d'intelligence artificielle (IA) et d'apprentissage automatique (ML) deviennent de plus en plus complexes de nos jours, et ces modèles génèrent le le résultat est une boîte noire – impossible à expliquer aux parties prenantes. L'IA explicable (XAI) vise à résoudre ce problème en permettant aux parties prenantes de comprendre comment fonctionnent ces modèles, en s'assurant qu'elles comprennent comment ces modèles prennent réellement des décisions et en garantissant la transparence des systèmes d'IA, la confiance et la responsabilité pour résoudre ce problème. Cet article explore diverses techniques d'intelligence artificielle explicable (XAI) pour illustrer leurs principes sous-jacents.
L'interprétabilité des travailleurs intelligents fait référence à son modèle technique qui peut être divisé en méthodes indépendantes du modèle et en méthodes spécifiques au modèle, chaque méthode convient à différents types de modèles et d’applications de travailleurs intelligents.
(1) Locally Interpretable Model Agnostic Explanation (LIME)
Local Interpretable Model Agnostic Explanation (LIME) est une technologie d'innovation conçue pour les prédictions de des modèles d’apprentissage automatique complexes compréhensibles par les humains. Essentiellement, l'avantage de LIME réside dans sa simplicité et sa capacité à expliquer le comportement de n'importe quel classificateur ou régresseur, quelle que soit sa complexité. LIME fonctionne en échantillonnant à proximité des données d'entrée, puis en utilisant un modèle simple (tel qu'un modèle de régression linéaire) pour se rapprocher des prédictions du modèle complexe d'origine. Les modèles simples apprennent à interpréter les prédictions de modèles complexes sur des entrées spécifiques afin que le processus décisionnel du modèle complexe puisse être compris. De cette façon, même si les modèles complexes sont des boîtes noires, nous pouvons éclairer les prédictions de n'importe quel classificateur ou régresseur grâce à l'interprétation de modèles simples
LIME en utilisant des modèles interprétables pour les approximer localement. L’idée clé est de perturber les données d’entrée et d’observer l’évolution de la prédiction, ce qui permet d’identifier les caractéristiques qui affectent de manière significative la prédiction.
Mathématiquement, pour une instance (x) et un modèle (f) donnés, LIME génère un nouvel exemple d'ensemble de données et les étiquete avec (f). Ensuite, il apprend un modèle simple (comme un modèle linéaire) basé sur (f) qui est localement fidèle à (f), minimisant l'objectif suivant :
[ xi(x) = underset{g in G }{text {argmin}} ; L(f, g, pi_x) + Omega(g) ]
où (L) est une mesure du degré d'infidélité de (g) lorsqu'on se rapproche de (f) autour de (x ), ( pi_x) est une mesure de proximité qui définit le voisinage local autour de (x), et (Omega) pénalise la complexité de (g).
(2) Shadditivité apleyexplication (SHAP) ) en spécifiant Chaque caractéristique prédite se voit attribuer une valeur importante pour aider les gens à comprendre le résultat du modèle d'apprentissage automatique. Imaginez que des gens tentent de prédire le prix d’une maison en fonction de caractéristiques telles que sa taille, son âge et son emplacement. Certaines fonctionnalités peuvent augmenter le prix attendu, tandis que d'autres fonctionnalités peuvent le réduire. Les valeurs SHAP aident à quantifier avec précision la contribution de chaque fonctionnalité à la prédiction finale par rapport à la prédiction de base (la prédiction moyenne de l'ensemble de données).
La valeur SHAP de la caractéristique (i) est définie comme :[ phi_i = sum_{S subseteq F setminus {i}} frac{|S|!(|F| - |S | - 1)!}{|F|!} [f_x(S cup {i}) - f_x(S)] ]
où, F) est l'ensemble de toutes les fonctionnalités, S) est à l'exclusion de ( Le sous-ensemble de fonctionnalités de i), (f_x(S)) est la prédiction de l'ensemble de fonctionnalités S), et la somme correspond à tous les sous-ensembles de fonctionnalités possibles. Cette formule garantit que la contribution de chaque fonctionnalité est répartie équitablement en fonction de son impact sur la prédiction.
Méthodes spécifiques au modèle
(1) Mécanisme d'attention dans le réseau neuronal
[ alpha_{tj} = frac {exp(e_{tj})}{sum_{k=1}^{T_s} exp(e_{tk})} ]
où (e_{tj}) est une fonction de notation qui évalue l'alignement entre l'entrée en position (j) et la sortie en position (t), et (T_s) est la longueur de la séquence d'entrée. Ce mécanisme permet au modèle de se concentrer sur les parties pertinentes des données d'entrée, améliorant ainsi l'interprétabilité.
(2) Visualisation des arbres de décision
Les arbres de décision offrent une interprétabilité inhérente en représentant les décisions comme une série de règles dérivées de fonctionnalités d'entrée. La structure de l'arbre de décision permet la visualisation, avec des nœuds représentant les décisions basées sur les fonctionnalités et des feuilles représentant les résultats. Cette représentation visuelle permet de suivre directement la manière dont les fonctionnalités d’entrée conduisent à des prédictions spécifiques.
(3) Mise en œuvre pratique et considérations éthiques
La mise en œuvre d'une IA explicable nécessite un examen attentif du type de modèle, des exigences de l'application et du public cible de l'explication. Il est également important de faire un compromis entre performances du modèle et interprétabilité. D’un point de vue éthique, il est crucial de garantir l’équité, la responsabilité et la transparence des systèmes d’IA. Les orientations futures de l’IA explicable incluent la normalisation des cadres d’explication et la poursuite de la recherche sur des méthodes d’explication plus efficaces.
L'IA explicable est essentielle pour interpréter des modèles complexes d'IA/ML, assurer la confiance et garantir la responsabilité dans leurs applications. Il utilise des technologies telles que LIME, SHAP, un mécanisme d'attention et une visualisation d'arbre de décision. À mesure que le domaine évolue, le développement de méthodes d’IA interprétables plus sophistiquées et standardisées sera essentiel pour répondre aux besoins changeants en matière de développement de logiciels et de conformité réglementaire.
Titre original : Explicable AI : Interpreting Complex AI/ML Model Auteur : Rajiv Avacharmal
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!