Maison > Périphériques technologiques > IA > le corps du texte

6 frameworks Python recommandés pour créer des systèmes d'intelligence artificielle explicables (XAI)

WBOY
Libérer: 2023-04-26 10:49:08
avant
1919 Les gens l'ont consulté

L’IA est comme une boîte noire, elle peut prendre des décisions toute seule, mais les gens ne savent pas pourquoi. Créez un modèle d'IA, saisissez des données, puis affichez les résultats, mais un problème est que nous ne pouvons pas expliquer pourquoi l'IA arrive à une telle conclusion. Il est nécessaire de comprendre le raisonnement qui sous-tend la manière dont une IA parvient à une certaine conclusion, plutôt que de simplement accepter un résultat produit sans contexte ni explication.

L'interprétabilité est conçue pour aider les gens à comprendre :

  • Comment a-t-il appris ?
  • Qu'a-t-il appris ?
  • Pourquoi a-t-il pris la décision qu'il a prise pour une entrée spécifique ?
  • La décision est-elle fiable ?

Dans cet article, je présenterai 6 frameworks Python pour l'interprétabilité.

SHAP

SHapley Additive Explication (SHapley Additive Explication) est une méthode de théorie des jeux pour expliquer la sortie de tout modèle d'apprentissage automatique. Il utilise la valeur Shapley classique de la théorie des jeux et ses extensions associées pour relier l'allocation optimale de crédits aux interprétations locales (voir l'article pour plus de détails et les citations).

La contribution de chaque entité de l'ensemble de données à la prédiction du modèle est expliquée par la valeur de Shapley. L'algorithme SHAP de Lundberg et Lee a été initialement publié en 2017 et a été largement adopté par la communauté dans de nombreux domaines différents.

六个优秀的可解释AI (XAI)的Python框架推荐

Utilisez pip ou conda pour installer la bibliothèque shap.

# install with pippip install shap# install with condaconda install -c conda-forge shap
Copier après la connexion

六个优秀的可解释AI (XAI)的Python框架推荐

Utilisez la bibliothèque Shap pour créer un graphique en cascade

六个优秀的可解释AI (XAI)的Python框架推荐

Utilisez la bibliothèque Shap pour créer un graphique Beeswarm

六个优秀的可解释AI (XAI)的Python框架推荐

Utilisez la bibliothèque Shap pour créer un graphique de dépendances partielles

LIME

Dans le domaine de l'interprétabilité, le la première méthode célèbre est LIME. Cela peut aider à expliquer quels modèles d’apprentissage automatique apprennent et pourquoi ils prédisent d’une certaine manière. Lime prend actuellement en charge l'interprétation des données tabulaires, des classificateurs de texte et des classificateurs d'images.

Savoir pourquoi le modèle prédit comme il le fait est crucial pour régler l'algorithme. Avec l'explication de LIME, vous pouvez comprendre pourquoi le modèle se comporte de cette façon. Si le modèle ne fonctionne pas comme prévu, il est probable qu'une erreur ait été commise lors de la phase de préparation des données.

六个优秀的可解释AI (XAI)的Python框架推荐

Utilisation de l'installation de pip

pip install lime
Copier après la connexion

六个优秀的可解释AI (XAI)的Python框架推荐

Graphique d'explication partielle construit par LIME

六个优秀的可解释AI (XAI)的Python框架推荐

Graphique Beeswarm construit par LIME

Shapash

" Shapash est un outil qui rend l'apprentissage automatique interprétable et accessible à tous Comprendre la bibliothèque Python. Shapash propose plusieurs types de visualisations qui affichent des étiquettes claires que tout le monde peut comprendre. Les data scientists peuvent plus facilement comprendre leurs modèles et partager les résultats en utilisant les résumés les plus standards « 

Pour exprimer des résultats qui contiennent des histoires. , des informations et des modèles dans vos données, l'interactivité et de beaux graphiques sont essentiels. La meilleure façon pour les entreprises et les data scientists/analystes de présenter et d’interagir avec les résultats de l’IA/ML est de les visualiser et de les mettre sur le Web. La bibliothèque Shapash peut générer des tableaux de bord interactifs et possède une collection de nombreux graphiques de visualisation. Lié à l’interprétabilité forme/chaux. Il peut utiliser SHAP/Lime comme backend, ce qui signifie qu'il ne fournit que des graphiques plus beaux. "Utilisation de Shapash pour créer un graphique de contribution aux fonctionnalités" chercheurs avec des algorithmes d’interprétabilité d’apprentissage automatique. InterpretML prend en charge la formation de modèles interprétables (glassbox), ainsi que l'interprétation des pipelines ML existants (blackbox).

InterpretML démontre deux types d'interprétabilité : les modèles glassbox – modèles d'apprentissage automatique conçus pour l'interprétabilité (par exemple, modèles linéaires, listes de règles, modèles additifs généralisés) et techniques d'interprétabilité boîte noire – pour l'interprétabilité des systèmes existants (par exemple, dépendances partielles, LIME). Utilisant une API unifiée et encapsulant plusieurs méthodes, avec une plate-forme de visualisation intégrée et extensible, ce package permet aux chercheurs de comparer facilement les algorithmes d'interprétabilité. InterpretML inclut également la première implémentation de l'explication Boosting Machine, un modèle de boîte de verre puissant et interprétable qui peut être aussi précis que de nombreux modèles de boîte noire.

六个优秀的可解释AI (XAI)的Python框架推荐

Tracé interactif d'explication locale construit à l'aide d'InterpretML

六个优秀的可解释AI (XAI)的Python框架推荐

Tracé d'explication global construit à l'aide d'InterpretML

ELI5

ELI5 est une bibliothèque Python qui peut aider à déboguer les classificateurs d'apprentissage automatique et à interpréter leurs prédictions. Les frameworks d'apprentissage automatique suivants sont actuellement pris en charge :

  • scikit-learn
  • XGBoost, LightGBM CatBoost
  • Keras

ELI5 propose deux manières principales d'interpréter un modèle de classification ou de régression :

  • Vérifiez les paramètres du modèle et expliquez comment le modèle fonctionne à l'échelle mondiale ;
  • Examinez les prédictions individuelles d'un modèle et illustrez ce que le modèle prendrait une telle décision.

六个优秀的可解释AI (XAI)的Python框架推荐

Utilisez la bibliothèque ELI5 pour générer des poids globaux

六个优秀的可解释AI (XAI)的Python框架推荐

Utilisez la bibliothèque ELI5 pour générer des poids locaux

OmniXAI

OmniXAI (abréviation de Omni expliqué AI) est une bibliothèque Python récemment développée et open source par Force de vente. Il fournit une gamme complète d'intelligence artificielle explicable et de capacités d'apprentissage automatique explicables pour résoudre plusieurs problèmes qui nécessitent du jugement lors de la génération de modèles d'apprentissage automatique dans la pratique. Pour les data scientists et les chercheurs en ML qui ont besoin d'interpréter différents types de données, de modèles et de techniques d'explication à différentes étapes du processus de ML, OmniXAI espère fournir une bibliothèque complète unique qui simplifie l'IA explicable.

六个优秀的可解释AI (XAI)的Python框架推荐

Ce qui suit est une comparaison entre ce que fournit OmniXAI et d'autres bibliothèques similaires

六个优秀的可解释AI (XAI)的Python框架推荐

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal