Maison > Périphériques technologiques > IA > Explication et interprétabilité du modèle ML et IA

Explication et interprétabilité du modèle ML et IA

Joseph Gordon-Levitt
Libérer: 2025-03-09 13:17:10
original
806 Les gens l'ont consulté

Dans cet article, nous plongeons dans les concepts de l'apprentissage automatique et de l'explication et de l'interprétabilité du modèle d'intelligence artificielle. Nous explorons pourquoi comprendre comment les modèles font des prédictions est crucial, d'autant plus que ces technologies sont utilisées dans des domaines critiques comme les soins de santé, la finance et les systèmes juridiques. Grâce à des outils comme le chaux et la forme, nous démontrons comment obtenir des informations sur le processus de prise de décision d'un modèle, ce qui rend les modèles complexes plus transparents. L'article met en évidence les différences entre l'explication et l'interprétabilité, et explique comment ces concepts contribuent à établir la confiance dans les systèmes d'IA, tout en abordant leurs défis et limitations.

Objectifs d'apprentissage

  • Comprendre la différence entre l'explication du modèle et l'interprétabilité dans l'apprentissage automatique et l'IA.
  • Apprenez comment les outils de chaux et de forme améliorent la transparence du modèle et les idées de prise de décision.
  • Explorez l'importance de l'explication et de l'interprétabilité dans la construction de la confiance dans les systèmes d'IA.
  • comprendre comment les modèles complexes peuvent être simplifiés pour une meilleure compréhension sans compromettre les performances.
  • Identifier les défis et les limites associés à l'explication et à l'interprétabilité du modèle d'IA.

Table des matières

  • Que signifie l'explication et l'interprétabilité, et pourquoi sont-ils essentiels en ML et en AI?
  • Avantages de l'amélioration de l'explication et de l'interprétabilité du modèle
  • Les outils pour l'amélioration de la ML et de l'exploitabilité et de l'interprétabilité de l'AI
  • pour l'amélioration de la ML et du modèle AI et de l'interprétabilité et de l'interprétabilité Données perturbées et comment elles sont créées?
  • Comment fonctionnent l'explication et l'interprétabilité intégrées dans des modèles complexes
  • Comment fonctionne la prise de décision du modèle de chaux et comment interpréter ses explications?
  • Comment accéder aux données perturbées de la chaux? Explications?
  • Comment implémenter et interpréter un tracé de résumé de la forme pour le modèle XGBR complexe?
  • Comment implémenter et interpréter le tracé de la dépendance de la forme pour le modèle XGBR complexe?
  • Comment implémenter et interpréter l'intrigue de décision de forme pour le modèle XGBOost complexe?
  • Tableau de comparaison des modèles
  • Explicabilité
  • CONCLUSION
  • Questions fréquemment posées
  • Que signifie l'explication et l'interprétabilité, et pourquoi sont-ils essentiels en ML et AI?
  • L’explication est un processus de réponse à la prise de décision du modèle. Par exemple, nous pouvons dire qu'un modèle ML et AI a une explicabilité lorsqu'il peut fournir une explication et un raisonnement pour les décisions du modèle en expliquant comment le modèle a divisé le nœud apparticulaire dans l'arbre et expliquer la logique de la division.
  • En revanche, l'interprétabilité est un processus qui est impliqué dans la traduction des explications et des décisions du modèle aux utilisateurs non techniques. Il aide les scientifiques des données à comprendre des choses telles que les poids et les coefficients contribuant aux prédictions du modèle, et il aide les utilisateurs non techniques à comprendre comment le modèle a pris les décisions et à quels facteurs le modèle a donné de l'importance pour faire ces prédictions.

    Comme les modèles AI et ML deviennent de plus en plus complexes avec des centaines de couches de modèle et des milliers à des milliards de paramètres, par exemple dans les modèles LLM et d'apprentissage en profondeur, il devient extrêmement difficile pour nous de comprendre les décisions globales et locales de niveau d'observation du modèle prises par le modèle. L'explication du modèle fournit des explications avec des idées et un raisonnement pour le fonctionnement interne du modèle. Ainsi, il devient impératif pour les scientifiques des données et les experts en IA de tirer parti des techniques d'explication dans leur processus de construction de modèle, ce qui améliorerait également l'interprétabilité du modèle.

    Avantages de l'amélioration de l'explication et de l'interprétabilité du modèle

    Ci-dessous, nous examinerons les avantages de l'explication et de l'interprétabilité du modèle:

    Amélioration de la confiance

    La confiance est un mot avec des significations générales. C'est la confiance dans la fiabilité, l'honnêteté ou l'intégrité de quelqu'un ou de quelque chose.

    La confiance est associée aux gens ainsi qu'aux choses non vivantes. Par exemple, compter sur la prise de décision d'un ami ou compter sur une voiture de conduite entièrement automatisée pour vous transporter d'un endroit à un autre. Le manque de transparence et de communication peut également conduire à l'érodation de la confiance. De plus, la confiance est construite au fil du temps par de petites étapes et des interactions positives répétées. Lorsque nous avons des interactions positives cohérentes avec une personne ou une chose, cela renforce notre croyance en leur fiabilité, ses intentions positives et leur inoffine. Ainsi, la confiance est construite au fil du temps grâce à nos expériences.

    et, il joue un rôle important pour nous de nous fier aux modèles ML et AI et leurs prédictions.

    Amélioration de la transparence et de la collaboration

    Lorsque nous pouvons expliquer le fonctionnement interne d'une machine ou d'un modèle d'apprentissage en profondeur, de son processus décisionnel et de l'intuition derrière les règles et les choix faits, nous pouvons établir la confiance et la responsabilité. Il contribue également à améliorer la collaboration et l'engagement avec les parties prenantes et les partenaires.

    Amélioration du dépannage

    Lorsque quelque chose se casse ou ne fonctionne pas comme prévu, nous devons trouver la source du problème. Pour ce faire, la transparence dans le fonctionnement interne d'un système ou d'un modèle est cruciale. Il aide à diagnostiquer les problèmes et à prendre des mesures efficaces pour les résoudre. Par exemple, considérez un modèle prédisant que cette personne «B» ne doit pas être approuvée pour un prêt. Pour comprendre cela, nous devons examiner les prédictions et les décisions du modèle. Cela comprend l'identification des facteurs que le modèle a priorisé pour les observations de la personne «B».

    Dans de tels scénarios, l'explication du modèle serait très utile pour approfondir les prédictions et la prise de décision du modèle liées à la personne "B". De plus, tout en approfondissant le fonctionnement interne du modèle, nous pourrions rapidement découvrir certains biais qui pourraient influencer et avoir un impact sur les décisions du modèle.

    Ainsi, avoir une explicabilité avec les modèles ML et AI et leur utilisation rendrait efficace le dépannage, la surveillance et l'amélioration continue, et aiderait à identifier et à atténuer les biais, et les erreurs pour améliorer les performances du modèle.

    Cas d'utilisation commerciale populaires pour la ML et l'exploitabilité et l'interprétabilité de l'IA

    Nous sommes toujours intéressés par la capacité de prédiction globale du modèle à influencer et à prendre des décisions éclairées basées sur les données. Il existe de nombreuses applications pour les modèles ML et IA dans diverses industries telles que la banque et la finance, la vente au détail, les soins de santé, Internet. Commercial, assurance, automobile, fabrication, éducation, télécommunications, voyage, espace, etc.

    Voici quelques-uns des exemples:

    Banque et finance

    Pour le secteur bancaire et financier, il est important d'identifier le bon client pour donner des prêts ou émettre des cartes de crédit. Ils souhaitent également prévenir les transactions frauduleuses. De plus, cette industrie est très réglementée.

    Pour rendre ces processus internes tels que les approbations des applications et la surveillance de la fraude efficaces, l'effet de levier des banques et des finances ML et la modélisation de l'IA pour aider à ces décisions importantes. Ils utilisent des modèles ML et IA pour prédire les résultats en fonction de certains facteurs donnés et connus.

    Généralement, la plupart de ces institutions surveillent continuellement les transactions et les données pour détecter les modèles, les tendances et les anomalies. Il devient important pour eux d'avoir la capacité de comprendre les prédictions du modèle ML et AI pour chaque application qu'ils traitent. Ils sont intéressés à comprendre le raisonnement derrière les prédictions du modèle et les facteurs qui ont joué un rôle important dans la réalisation des prédictions.

    Maintenant, disons qu'un modèle ML a prédit que les demandes de prêt soient rejetées pour certains de leurs clients avec des scores de crédit élevés, et cela pourrait ne pas sembler habituel. Dans de tels scénarios, ils peuvent utiliser des explications du modèle pour l'analyse des risques et obtenir des informations plus approfondies sur les raisons pour lesquelles le modèle a décidé de rejeter l'application client et lequel des facteurs du client a joué un rôle important dans cette prise de décision. Cette découverte pourrait les aider à détecter, à enquêter et à atténuer les problèmes, les vulnérabilités et les nouveaux biais dans leur prise de décision de modèle et aider à améliorer les performances du modèle.

    Healthcare

    De nos jours, dans l'industrie des soins de santé, les modèles ML / AI sont exploités pour prédire les résultats pour la santé des patients en fonction de divers facteurs, par exemple des antécédents médicaux, des laboratoires, du style de vie, de la génétique, etc.

    Supposons qu'une institution médicale utilise des modèles ML / AI pour prédire si le patient sous leur traitement a une forte probabilité de cancerOR. Étant donné que ces problèmes impliquent la vie d'une personne, les modèles AI / ML devraient prédire les résultats avec un niveau de précision très élevé.

    Dans de tels scénarios, avoir la capacité de approfondir les prédictions d'un modèle, les règles de décision utilisées et la compréhension des facteurs qui influencent les prédictions deviennent importantes. L'équipe professionnelle de la santé ferait sa diligence raisonnable et s'attendrait à ce que la transparence du modèle ML / AI fournisse des explications claires et détaillées liées aux résultats des patients prévus et aux facteurs contributifs. C'est là que l'explication du modèle ML / AI devient essentielle.

    Cette interrogation peut parfois aider à découvrir certaines vulnérabilités et les biais cachées dans la prise de décision du modèle et peut être abordée pour améliorer les prédictions de modèle futures.

    Véhicules autonomes

    Les véhicules autonomes sont des véhicules auto-opérants tels que les voitures, les camions de marchandises, les trains, les avions, les navires, les vaisseaux spatiaux, etc. Dans ces véhicules, les modèles d'IA et de ML jouent un rôle crucial en permettant à ces véhicules de fonctionner indépendamment, sans intervention humaine. Ces modèles sont construits à l'aide de modèles d'apprentissage automatique et de vision par ordinateur. Ils permettent aux voitures / véhicules autonomes de percevoir les informations dans leur environnement, de prendre des décisions éclairées et de les naviguer en toute sécurité.

    Dans le cas de véhicules autonomes conçus pour opérer sur des routes, la navigation signifie guider le véhicule de manière autonome en temps réel, c'est-à-dire sans intervention humaine à travers des tâches cruciales telles que la détection et l'identification d'objets, la reconnaissance des feux de circulation et des signes, prédire les comportements d'objet, le maintien de Lanes et la planification

    Étant donné que les véhicules routiers autonomes impliquent la sécurité du conducteur, des passagers, des biens publics et publics, ils devraient travailler parfaitement et adhérer aux réglementations et à la conformité, pour acquérir une confiance, l'acceptation et l'adoption du public.

    Il est donc très important de renforcer la confiance dans les modèles d'IA et de ML sur lesquels ces véhicules comptent pleinement pour prendre des décisions. Dans les véhicules autonomes, l'explicabilité de l'IA et de la ML est également connue sous le nom d'IA explicable (XAI). L'IA explicable peut être utilisée pour améliorer l'interaction des utilisateurs en leur fournissant des commentaires sur les actions et les décisions en temps réel, et ces outils peuvent également servir d'outils pour étudier les décisions et les problèmes d'IA, identifier et éliminer les biais et les vulnérabilités cachés, et améliorer les modèles de véhicules autonomes.

    Retail

    In the Retail industry, AI and ML models are used to guide various decisions such as product sales, inventory management, marketing, customer support and experience, etc. Having explainability with the ML and AI facilitates understanding of the model predictions, and a deeper look into issues related to predictions such as types of products not generating sales, or what will be the sales predictions for a particular store or outlet next month, or which products would have high demand, and needs to be stocké, ou quelles campagnes de marketing ont un impact positif sur les ventes, etc.

    À partir des cas d'utilisation commerciale ci-dessus, nous pouvons voir clairement qu'il est très important que les modèles ML et IA aient des explications claires et utilisables pour le modèle global ainsi que pour la prédiction individuelle pour guider les décisions commerciales et rendre les opérations commerciales efficaces.

    Certains des modèles complexes sont livrés avec une explicabilité intégrée tandis que certains modèles reposent sur des outils externes pour cela. Il existe aujourd'hui plusieurs outils agnostiques de modèle qui nous aident à ajouter de l'explication du modèle. Nous allons regarder plus profondément dans deux de ces outils disponibles.

    Outils pour améliorer l'explication et l'interprétabilité du modèle ML et AI

    Tout outil qui fournit des informations relatives au processus de prise de décision du modèle et les contributions des caractéristiques dans les prédictions du modèle est très utile. Les explications peuvent être rendues plus intuitives grâce à des visualisations.

    Dans cet article, nous allons examiner plus profondément les deux des outils externes populairement utilisés pour ajouter l'explication et l'interprétabilité du modèle ML et AI:

    • chaux (explications locales de modèle interprétable-agnostique)
    • Forme (explications additives galbées)

    Le chaux est un modèle agnostique, ce qui signifie qu'il peut être mis en œuvre avec n'importe quel modèle d'apprentissage automatique et d'apprentissage en profondeur. Il peut être utilisé avec des modèles d'apprentissage automatique tels que des régressions linéaires et logistiques, des arbres de décision, une forêt aléatoire, Xgboost, KNN, ElasticNet, etc. et avec des modèles de réseaux neuronaux profonds tels que RNN, LSTM, CNN, modèles de boîte noire pré-formés, etc.

    Il fonctionne en supposant qu'un modèle interprétable simple peut être utilisé pour expliquer le fonctionnement interne d'un modèle complexe. Un modèle interprétable simple peut être un modèle de régression linéaire simple ou un modèle d'arbre de décision. Ici, nous avons utilisé un modèle de régression linéaire simple comme modèle interprétable pour générer des explications pour le modèle complexe en utilisant des explications chaux / forme.

    Le chaux a également appelé des explications autochtones interprétables entièrement interprétables travaillent localement sur une seule observation à la fois et nous aide à comprendre comment le modèle a prédit le score de cette observation. Il fonctionne en créant des données synthétiques en utilisant les valeurs perturbées des fonctionnalités des observations originales.

    Quelles sont les données perturbées et comment elles sont créées?

    Pour créer des ensembles de données perturbés pour les données tabulaires, Lime prend d'abord toutes les fonctionnalités de l'observation, puis crée de nouvelles valeurs pour l'observation en modifiant légèrement les valeurs des fonctionnalités en utilisant diverses transformations. Les valeurs perturbées sont très proches de la valeur d'observation d'origine et d'un quartier plus proche de la valeur d'origine.

    Pour les types de données de texte et d'image, la chaux crée itérativement un ensemble de données en sélectionnant aléatoirement les fonctionnalités de l'ensemble de données d'origine et en créant de nouvelles valeurs perturbées des fonctionnalités du quartier pour les fonctionnalités. La largeur du noyau de chaux contrôle la taille du quartier de points de données.

    Une taille de noyau plus petite signifie que le quartier est petit et les points les plus proches de la valeur d'origine auront un impact significatif sur les explications tandis que pour une grande taille de noyau, les points distants pourraient contribuer aux explications de chaux.

    Les tailles de quartier plus larges conduiraient à des explications moins précises, mais pourraient aider à découvrir des tendances plus larges dans les données. Pour des explications locales plus précises, les petites tailles de quartier doivent être préférées.

    Comprendre la figure

    à travers la figure (Fig-1) ci-dessous, nous essayons de donner une certaine intuition dans les valeurs perturbées, la taille du noyau et le quartier.

    Pour cette discussion, nous avons utilisé des exemples de données de l'ensemble de données BigMart et c'est un problème de régression. Nous avons utilisé des données tabulaires pour la chaux.

    Explication et interprétabilité du modèle ML et IA

    Considérant l'observation # 0 à partir de l'ensemble de données BigMart. Cette observation a une caractéristique «item_type» avec une valeur de 13. Nous avons calculé la moyenne et l'écart type pour cette fonctionnalité et nous avons obtenu la valeur moyenne de 7,234 et l'écart-type égal à 4,22. Ceci est illustré dans la figure ci-dessus. En utilisant ces informations, nous avons ensuite calculé le score z égal à 1,366.

    La zone à gauche du score Z nous donne le% de valeurs pour la fonction qui tomberait en dessous du x. Pour un score Z de 1,366, nous aurions des valeurs d'environ 91,40% pour la fonction qui tomberait en dessous de x = 13. Ainsi, nous obtenons une intuition selon laquelle la largeur du noyau devrait être inférieure à x = 13 pour cette fonctionnalité. Et, la largeur du noyau aiderait à contrôler la taille du quartier pour les données perturbées.

    ci-dessous Fig-2 montre trois points de données de test originaux de l'ensemble de données BigMart et nous les avons considérés pour obtenir l'intuition du processus de chaux. XGBOost est un modèle complexe et il a été utilisé pour générer des prédictions sur les instances d'observations originales.

    Pour cet article, nous utiliserons les 3 meilleurs enregistrements de l'ensemble de données prétraité et codé pour fournir des exemples et des explications pour soutenir la discussion.

    Explication et interprétabilité du modèle ML et IA

    Formule de distance de chaux

    Le chaux utilise en interne la distance entre le point de données d'origine et les points du voisinage et calcule la distance à l'aide de la distance euclidienne. Disons que le point X = 13 a des coordonnées (x1, y1) et un autre point du quartier a des coordonnées (x2, y2), la distance euclidienne entre ces deux points est calculée en utilisant l'équation ci-dessous:

    Explication et interprétabilité du modèle ML et IA

    La figure (Fig-4) ci-dessous montre les points de données perturbés bleus et la valeur d'origine comme point de données rouge. Le point de données perturbé à une distance plus courte du point de données d'origine aura plus d'impact pour les explications en chaux.

    Explication et interprétabilité du modèle ML et IA

    L'équation ci-dessus considère 2d. Des équations similaires peuvent être dérivées pour les points de données ayant n nombre de dimensions.

    La largeur du noyau aide la chaux à déterminer la taille du voisinage pour sélectionner les valeurs perturbées pour la fonctionnalité. Au fur et à mesure que les valeurs ou les points de données s'éloignent de la valeur d'origine, ils deviendraient moins impactants pour prédire les résultats du modèle.

    La figure (Fig-6) ci-dessous montre les valeurs de fonction perturbées, ainsi que leur score de similitude avec la valeur d'origine, et les prédictions d'instance perturbées utilisant le modèle XGBOost, et la figure (Fig-5) montre les informations pour un modèle simple interprétable de boîte noire (régression linéaire).

    Explication et interprétabilité du modèle ML et IA

    Explication et interprétabilité du modèle ML et IA

    comment l'explication et l'interprétabilité intégrées fonctionnent dans des modèles complexes

    Des modèles complexes tels que XGBOost, Random Forest, etc. sont livrés avec des caractéristiques de base des modèles intégrés. Le modèle XGBOost fournit une explication du modèle à un niveau global et n'est pas en mesure d'expliquer les prédictions au niveau local d'observation.

    Depuis cette discussion, nous avons utilisé XGBOost comme modèle complexe, nous avons discuté de son modèle intégré explicabilité ci-dessous. Le XGBOost nous fournit des fonctionnalités pour tracer l'arbre de décision pour obtenir l'intuition dans la prise de décision globale du modèle et son importance caractéristique pour les prédictions. L'importance des fonctionnalités renvoie une liste des fonctionnalités par ordre de leur signification de contribution aux résultats du modèle.

    Tout d'abord, nous avons lancé un modèle XGBOost, puis l'avons entraîné en utilisant les fonctionnalités indépendantes et cibles de l'ensemble de formation. Les caractéristiques d'explication intégrées du modèle XGBOost ont été utilisées pour mieux comprendre le modèle.

    pour tracer les explications XGBoost In-construites Utilisez le code source suivant:

    # plot single tree
    plot_tree(xgbr_model)
    plt.figure(figsize=(10,5))
    plt.show()
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion

    La figure (Fig-7) ci-dessous montre l'arbre de décision de sortie du modèle XGBOost complexe BigMart ci-dessus.

    Explication et interprétabilité du modèle ML et IA

    À partir de l'arborescence du modèle XGBOost ci-dessus, nous obtenons quelques informations sur la prise de décision du modèle et les règles conditionnelles qu'il a utilisées pour diviser les données et faire la prédiction finale. D'après ce qui précède, il semble que ce modèle XGBOOST, la fonctionnalité Item_MRP a le plus contribué au résultat, suivi de la prise de décision Outlet_Type. Nous pouvons le vérifier en utilisant l'importance des fonctionnalités de XGBoost.

    Code source pour afficher l'importance de la fonctionnalité

    Pour afficher l'importance de la fonctionnalité pour le modèle XGBOost à l'aide de l'explication intégrée, utilisez le code source suivant.

    # feature importance of the model
    feature_importance_xgb = pd.DataFrame()
    feature_importance_xgb['variable'] = X_train.columns
    feature_importance_xgb['importance'] = xgbr_model.feature_importances_
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    # feature_importance values in descending order
    feature_importance_xgb.sort_values(by='importance', ascending=False).head()
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion

    La figure (Fig-9) ci-dessous montre l'importance de la caractéristique générée en utilisant les explications intra-construites du modèle xgboost ci-dessus.

    Explication et interprétabilité du modèle ML et IA

    D'après les importations de fonctionnalités XGBOost ci-dessus, nous voyons intéressant que pour le modèle XGBOOST, le Outlet_type avait une magnitude contributive plus élevée que l'élément_mrp. De plus, le modèle a fourni des informations pour les autres caractéristiques contributives et leur impact sur les prédictions du modèle.

    Comme nous le remarquons, les explications du modèle XGBOost sont au niveau mondial et fournissent une bonne quantité d'informations, mais certaines informations supplémentaires telles que la direction de la contribution des fonctionnalités sont manquantes et nous n'avons pas d'informations pour les observations de niveau local. La direction nous dirait si la fonctionnalité contribue à augmenter les valeurs prévues ou à diminuer les valeurs prévues. Pour les problèmes de classification, la direction des contributions des fonctionnalités signifierait savoir si la fonctionnalité contribue à la classe «1» ou classe »0».

    C'est là que les outils d'exploitabilité externes tels que la chaux et la forme peuvent être utiles et compléter l'explication du modèle XGBOost avec les informations sur la direction de la contribution des fonctionnalités ou de l'impact des fonctionnalités. Pour les modèles sans fonctionnalités intégrées pour expliquer le processus de prise de décision du modèle, Lime aide à ajouter cette capacité à expliquer ses décisions de prédiction pour les instances locales et mondiales.

    Comment fonctionne la prise de décision du modèle de chaux et comment interpréter ses explications?

    Le chaux peut être utilisé avec des modèles complexes, des modèles simples et également avec des modèles de boîte noire où nous n'avons aucune connaissance du modèle de travail et n'avons que les prédictions.

    Ainsi, nous pouvons adapter le modèle de chaux directement avec un modèle nécessitant des explications, et nous pouvons également l'utiliser pour expliquer les modèles de boîte noire via un modèle simple de substitution.

    Ci-dessous, nous utiliserons le modèle de régression XGBOost comme modèle complexe ainsi que noir et exploiterons un modèle de régression linéaire simple pour comprendre les explications de chaux du modèle de boîte noire. Cela nous permettra également de comparer les explications générées par la chaux en utilisant les deux approches pour le même modèle complexe.

    Pour installer la bibliothèque Lime, utilisez le code suivant:

    # plot single tree
    plot_tree(xgbr_model)
    plt.figure(figsize=(10,5))
    plt.show()
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion

    Approche1: Comment implémenter et interpréter des explications de chaux en utilisant le modèle XGBR complexe?

    pour implémenter l'explication de chaux directement avec le modèle complexe tel que xgboost Utilisez le code suivant:

    # feature importance of the model
    feature_importance_xgb = pd.DataFrame()
    feature_importance_xgb['variable'] = X_train.columns
    feature_importance_xgb['importance'] = xgbr_model.feature_importances_
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion

    Cela générerait une sortie qui ressemble à la figure illustrée ci-dessous.

    Explication et interprétabilité du modèle ML et IA

    d'en haut, nous voyons que l'observation perturbée # 0 a un score de similitude de 71,85% et cela indique que les caractéristiques de cette observation étaient de 71,85% similaires à celles de l'observation d'origine. La valeur prévue pour l'observation # 0 est de 1670,82, avec une plage globale de valeurs prévues entre 21,74 et 5793,40.

    Lime a identifié les caractéristiques les plus contributives pour les prédictions de l'observation # 0 et les a organisées par ordre décroissant de l'ampleur des contributions de caractéristiques.

    Les caractéristiques marquées en couleur bleue indiquent qu'elles contribuent à diminuer les valeurs prédites du modèle tandis que les caractéristiques marquées en orange indiquent qu'elles contribuent à augmenter les valeurs prévues pour l'observation, c'est-à-dire l'instance locale # 0.

    De plus, le chaux allait plus loin en fournissant les règles conditionnelles au niveau des fonctionnalités utilisées par le modèle de division des données pour l'observation.

    Visualiser les contributions des fonctionnalités et les prédictions de modèle à l'aide de chaux

    Dans la figure (Fig-13) ci-dessus, le tracé de gauche indique la plage globale des valeurs prévues (min à max) par toutes les observations, et la valeur au centre est la valeur prévue pour cette instance spécifique, c'est-à-dire l'observation.

    L'intrigue au centre affiche la couleur bleue représente les caractéristiques contributives négativement à la prédiction du modèle et les caractéristiques contributives positivement à la prédiction du modèle pour l'instance locale sont représentées par la couleur orange. Les valeurs numériques avec les caractéristiques indiquent les valeurs perturbées de la caractéristique ou nous pouvons dire qu'elles indiquent l'ampleur de la contribution des fonctionnalités à la prédiction du modèle, dans ce cas, c'est pour l'observation spécifique (# 0) ou l'instance locale .

    Le tracé de la droite indique l'ordre d'importance des caractéristiques donnée par le modèle pour générer la prédiction de l'instance.

    Remarque: Chaque fois que nous exécutons ce code, le chaux sélectionne les fonctionnalités et leur attribue des poids légèrement nouveaux, il peut donc modifier les valeurs prévues ainsi que les parcelles.

    Approche 2: Comment implémenter et interpréter des explications de chaux pour le modèle de boîte noire (XGBR) à l'aide du modèle LR simple de substitution?

    Pour implémenter la chaux avec des modèles de boîtes noires complexes telles que XGBOost, nous pouvons utiliser la méthode du modèle de substitution. Pour le modèle de substitution, nous pouvons utiliser des modèles simples tels que la régression linéaire ou les modèles d'arbre de décision. Le citron vert fonctionne très bien sur ces modèles simples. Et, nous pouvons également utiliser un modèle complexe comme modèle de substitution avec la chaux.

    Pour utiliser la chaux avec le modèle simple de substitution, nous aurons d'abord besoin de prédictions du modèle de boîte noire.

    # plot single tree
    plot_tree(xgbr_model)
    plt.figure(figsize=(10,5))
    plt.show()
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion

    Deuxième étape

    Dans la deuxième étape à l'aide du modèle complexe, des fonctionnalités indépendantes de l'ensemble de train, et du chaux, nous générons un nouvel ensemble de données de valeurs de fonctionnalité perturbées, puis formons le modèle de substitution (régression linéaire dans ce cas) en utilisant les fonctionnalités perturbées et le modèle complexe prédit les valeurs.

    # feature importance of the model
    feature_importance_xgb = pd.DataFrame()
    feature_importance_xgb['variable'] = X_train.columns
    feature_importance_xgb['importance'] = xgbr_model.feature_importances_
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    # feature_importance values in descending order
    feature_importance_xgb.sort_values(by='importance', ascending=False).head()
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion

    Pour générer les valeurs de fonctionnalité perturbées à l'aide de chaux, nous pouvons utiliser le code source suivant illustré ci-dessous.

    # install lime library
    !pip install lime
    
    # import Explainer function from lime_tabular module of lime library
    from lime.lime_tabular import LimeTabularExplainer
    Copier après la connexion
    Copier après la connexion

    Le code ci-dessus fonctionne pour la régression. Pour les problèmes de classification, le mode devrait être modifié en «classification».

    Remarque

    Enfin, nous adaptons la chaux pour l'instance locale # 0 à l'aide du modèle de substitution LR et visons les explications. Cela aidera également à interpréter les contributions des fonctionnalités du modèle Black Box (XGBR). Pour ce faire, utilisez le code ci-dessous.

    # Fit the explainer model  using the complex model and show the LIME explanation and score
    explanation = explainer.explain_instance(X_unseen_test.values[0], xgbr_model.predict)
    explanation.show_in_notebook(show_table=True, show_all=False)
    print(explanation.score)
    Copier après la connexion
    Copier après la connexion

    En exécutant ce qui précède, nous avons obtenu les explications de chaux suivantes comme le montre la figure (Fig-13) ci-dessous.

    Explication et interprétabilité du modèle ML et IA

    Une chose que nous avons immédiatement remarquée était que lorsque nous avons utilisé le chaux directement avec le modèle XGBOOST, le score d'explications de chaux était plus élevé (71,85%) pour l'observation # 0 et lorsque nous l'avons traité comme un modèle de boîte noire et utilisé un modèle LR de substitution pour obtenir les explications de la chaux pour le modèle de boîte noire (xgboost), il y a une goutte significative dans le score d'explication (49.543%). Cela indique que l'approche du modèle de substitution, il y aurait moins de fonctionnalités dans l'observation qui seraient similaires aux caractéristiques d'origine et, par conséquent, il peut y avoir une différence dans les prédictions en utilisant l'explicateur par rapport au modèle d'origine et à la chaux du modèle d'origine.

    La valeur prévue pour l'observation # 0 est de 2189,59, avec une plage globale de valeurs prévues entre 2053,46 et 2316,54.

    La valeur prévue pour l'observation # 0 à l'aide de la chaux XGBR était 1670.82.

    Comment accéder aux données perturbées en chaux?

    pour afficher les valeurs perturbées à la chaux utilisez le code suivant.

    # plot single tree
    plot_tree(xgbr_model)
    plt.figure(figsize=(10,5))
    plt.show()
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion

    La sortie d'en haut ressemblerait à quelque chose comme indiqué dans la figure ci-dessous.

    Explication et interprétabilité du modèle ML et IA

    # feature importance of the model
    feature_importance_xgb = pd.DataFrame()
    feature_importance_xgb['variable'] = X_train.columns
    feature_importance_xgb['importance'] = xgbr_model.feature_importances_
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion

    Explication et interprétabilité du modèle ML et IA

    Importance de la caractéristique de la chaux

    Chaque instance du modèle donne une importance de fonctionnalité différente dans la génération de la prédiction de l'instance. Ces caractéristiques du modèle identifiées jouent un rôle important dans les prévisions du modèle. Les valeurs d'importance des fonctionnalités indiquent les valeurs des fonctionnalités perturbées ou la nouvelle ampleur des caractéristiques identifiées pour la prédiction du modèle.

    Qu'est-ce que le score d'explication de la chaux et comment l'interpréter?

    Le score d'explication de la chaux indique la précision des explications de chaux et le rôle des caractéristiques identifiées dans la prévision des résultats du modèle. Le score explicable plus élevé indique que les caractéristiques identifiées par le modèle pour l'observation ont joué un rôle significatif dans la prédiction du modèle pour cette instance. D'après la figure ci-dessus (Fig-13), nous voyons que le modèle de substitution interprétable LR a donné un score de 0,4954 aux caractéristiques identifiées dans l'observation.

    Passons maintenant à un autre outil nommé LOMEMENT pour ajouter une explicabilité au modèle.

    Comprendre la forme (explications additives de Shapley)

    Un autre outil populairement utilisé pour les explications du modèle ML et AI est la forme (explications additives galbées). Cet outil est également modèle agnostique. Ses explications sont basées sur le concept de théorie des jeux coopératifs appelée «Valeurs Shapley». Dans cette théorie des jeux, les contributions de tous les joueurs sont prises en compte et chaque joueur reçoit une valeur basée sur leur contribution au résultat global. Ainsi, il fournit un aperçu juste et interprétable des décisions du modèle.

    Selon Lorvely, une coalition de joueurs travaille ensemble pour atteindre un résultat. Tous les joueurs ne sont pas identiques et chaque joueur a des caractéristiques distinctes qui les aident à contribuer différemment du résultat. La plupart du temps, ce sont les contributions des multiples joueurs qui les aident à gagner le jeu. Ainsi, la coopération entre les joueurs est bénéfique et doit être valorisée, et ne devrait pas dépendre uniquement de la contribution d'un seul joueur au résultat. Et, en forme, le gain généré par le résultat doit être distribué entre les joueurs en fonction de leurs contributions.

    L'outil d'explication du modèle ML et AI de la forme est basé sur le concept ci-dessus. Il traite les fonctionnalités de l'ensemble de données comme des joueurs individuels de l'équipe (observation). Les coalitions travaillent ensemble dans un modèle ML pour prédire les résultats et le gain est la prédiction du modèle. La forme aide à distribuer de manière assez et efficiente le gain de résultat entre les caractéristiques individuelles (joueurs), reconnaissant ainsi leur contribution aux résultats du modèle.

    Distribution équitable des contributions en utilisant des valeurs de Shapley

    Explication et interprétabilité du modèle ML et IA

    Dans la figure (Fig-15) ci-dessus, nous avons considéré deux joueurs participant à une compétition et le résultat est atteint sous forme de prix gagné. Les deux joueurs participent en formant différentes coalitions (C12, C10, C20, C0), et grâce à chaque coalition, ils gagnent des prix différents. Enfin, nous voyons comment les poids moyens galbés nous aident à déterminer la contribution de chaque joueur au résultat et à distribuer de manière équitable le prix parmi les participants.

    Dans le cas des joueurs «I», l'équation suivante illustrée sur la figure (Fig-16) peut être utilisée pour déterminer la valeur de forme pour chaque joueur ou fonctionnalité.

    Explication et interprétabilité du modèle ML et IA

    Explorons davantage la bibliothèque de la forme.

    Comment installer l'installation de la bibliothèque de la forme et l'initialiser?

    Pour installer la bibliothèque de forme, utilisez le code source suivant comme indiqué ci-dessous.

    # plot single tree
    plot_tree(xgbr_model)
    plt.figure(figsize=(10,5))
    plt.show()
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion

    Comment implémenter et interpréter des explications de forme de modèle XGBR complexes?

    Les bibliothèques de forme peuvent être utilisées directement avec les modèles complexes pour générer des explications. Vous trouverez ci-dessous le code pour utiliser la forme directement avec le modèle XGBOost complexe (en utilisant la même instance de modèle comme utilisé pour les explications en chaux).

    # feature importance of the model
    feature_importance_xgb = pd.DataFrame()
    feature_importance_xgb['variable'] = X_train.columns
    feature_importance_xgb['importance'] = xgbr_model.feature_importances_
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion

    Comment générer des valeurs de forme pour le modèle XGBR complexe?

    # feature_importance values in descending order
    feature_importance_xgb.sort_values(by='importance', ascending=False).head()
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion

    Ce qui précède affichera les tableaux de valeurs de forme pour chacun des joueurs de caractéristiques des coalitions, c'est-à-dire des observations dans l'ensemble de données de test.

    Les valeurs de forme ressembleraient à quelque chose comme indiqué sur la figure (Fig-19) ci-dessous:

    Explication et interprétabilité du modèle ML et IA

    Quelle est l'importance de la caractéristique de la forme pour le modèle XGBR complexe?

    La forme nous aide à identifier les caractéristiques qui ont contribué au résultat du modèle. Il montre comment chaque caractéristique a influencé les prédictions et leur impact. La forme compare également la contribution des caractéristiques aux autres dans le modèle.

    La forme y parvient en considérant toutes les permutations possibles des fonctionnalités. Il calcule et compare les résultats du modèle avec et sans les fonctionnalités, calculant ainsi chaque contribution de fonctionnalités avec l'ensemble de l'équipe (tous les joueurs a.K.A fonctionnalités considérées).

    Comment implémenter et interpréter le tracé de résumé de la forme pour le modèle XGBR complexe?

    Le tracé de résumé de la forme peut être utilisé pour visualiser les contributions de la fonctionnalité de forme, leur importance et l'impact sur les résultats.

    Voici la figure (Fig-20) montre le code source pour générer le tracé de résumé.

    # plot single tree
    plot_tree(xgbr_model)
    plt.figure(figsize=(10,5))
    plt.show()
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion

    Explication et interprétabilité du modèle ML et IA

    La figure (Fig-21) ci-dessus montre un tracé de résumé de la forme pour les données BigMart. D'en haut, nous voyons que la forme a organisé les fonctionnalités de l'ensemble de données BigMart dans l'ordre de leur importance. Sur le côté droit, nous voyons les fonctionnalités disposées à partir de fonctionnalités de grande valeur en haut et une valeur basse disposée en bas.

    De plus, nous pouvons interpréter l'impact des caractéristiques du modèle sur son résultat. L'impact des fonctionnalités est tracé horizontalement centré autour de la valeur moyenne de la forme. Les valeurs de forme de la fonction à gauche de la valeur moyenne de forme sont indiquées en couleur rose signifiant son impact négatif. Les valeurs de forme de caractéristiques à droite de la valeur moyenne de forme signifient la contribution de la caractéristique à l'impact positif. Les valeurs de forme indiquent également l'ampleur ou l'influence des caractéristiques sur le résultat.

    Ainsi, la forme présente une image globale du modèle indiquant l'ampleur et la direction de la contribution de chaque caractéristique vers le résultat prévu.

    Comment implémenter et interpréter le tracé de dépendance de la forme pour le modèle XGBR complexe?

    # feature importance of the model
    feature_importance_xgb = pd.DataFrame()
    feature_importance_xgb['variable'] = X_train.columns
    feature_importance_xgb['importance'] = xgbr_model.feature_importances_
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion

    Explication et interprétabilité du modèle ML et IA

    Le tracé de dépendance des fonctionnalités de la forme nous aide à interpréter la relation de fonctionnalité avec une autre fonctionnalité. Dans le tracé ci-dessus, il semble que l'élément_mrp dépend de la sortie_type. Pour OUTLET_TYPES 1 à 3, l'élément_mrp a une tendance croissante, tandis que comme le montre ce qui précède pour outlet_type 0 à outlet_type 1, item_mrp a une tendance décroissante.

    Comment implémenter et interpréter le tracé de Force Force pour le modèle XGBR complexe?

    Jusqu'à présent, nous avons vu l'importance, l'impact et la prise de décision de la forme de la forme au niveau mondial. Le tracé de Force Force peut être utilisé pour obtenir une intuition dans la prise de décision du modèle à un niveau d'observation local.

    Pour utiliser le tracé de Force Force, nous pouvons utiliser le code ci-dessous. N'oubliez pas d'utiliser vos propres noms d'ensemble de données. Le code suivant examine la première observation de l'ensemble de données de test, c'est-à-dire x_unseen_test.iloc [0]. Ce nombre peut être modifié pour examiner différentes observations.

    # plot single tree
    plot_tree(xgbr_model)
    plt.figure(figsize=(10,5))
    plt.show()
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion

    Explication et interprétabilité du modèle ML et IA

    Nous pouvons interpréter le tracé de force ci-dessus comme ci-dessous. La valeur de base indique la valeur prévue pour l'instance locale # 0 en utilisant le modèle de substitution de forme LR. Les caractéristiques marquées en couleur rose foncé sont celles qui poussent la valeur de prédiction plus élevée tandis que les caractéristiques marquées en couleur bleue tirent la prédiction vers une valeur inférieure. Les nombres avec les fonctionnalités sont les valeurs d'origine de la fonctionnalité.

    Comment mettre en œuvre et interpréter le tracé de décision de la forme pour le modèle XGBOost complexe?

    Pour afficher le tracé de dépendance de la forme, nous pouvons utiliser le code suivant comme indiqué sur la figure-24 ci-dessous.

    # feature importance of the model
    feature_importance_xgb = pd.DataFrame()
    feature_importance_xgb['variable'] = X_train.columns
    feature_importance_xgb['importance'] = xgbr_model.feature_importances_
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion

    Le tracé de décision de la forme est une autre façon de regarder l'impact des différentes caractéristiques du modèle sur la prédiction du modèle. D'après l'intrigue de décision ci-dessous, nous avons essayé de visualiser l'impact de diverses fonctionnalités du modèle sur le résultat prévu, c'est-à-dire les ventes de débouchés.

    D'après le tracé de décision ci-dessous, nous observons que la fonctionnalité Item_MRP a un impact positif sur le résultat prévu. Il augmente les ventes de points de vente des articles. De même, outlet_identifier_out018 contribue également positivement en augmentant les ventes. D'un autre côté, item_type a un impact négatif sur le résultat. Il diminue les ventes de points de vente des articles. De même, outlet_identifier_27 réduit également les ventes avec sa contribution négative.

    L'intrigue ci-dessous montre l'intrigue de décision pour les données de vente de Big Mart.

    Explication et interprétabilité du modèle ML et IA

    Comment implémenter et interpréter le tracé de Force Force pour le modèle XGBR complexe à l'aide de TreeExplainer?

    # feature_importance values in descending order
    feature_importance_xgb.sort_values(by='importance', ascending=False).head()
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion

    Explication et interprétabilité du modèle ML et IA

    Comment implémenter et interpréter les explications de la forme du modèle de boîte noire à l'aide du modèle de substitution?

    Pour utiliser les explications de forme avec le modèle de substitution (modèle de régression linéaire utilisé ici) utilisez le code suivant. Le modèle de régression linéaire est formé à l'aide des prédictions du modèle de boîte noire et des fonctionnalités indépendantes de l'ensemble de formation.

    # install lime library
    !pip install lime
    
    # import Explainer function from lime_tabular module of lime library
    from lime.lime_tabular import LimeTabularExplainer
    Copier après la connexion
    Copier après la connexion

    Pour le modèle de substitution d'explicateur de forme, les valeurs de forme ressembleraient à ce qui est ci-dessous.

    Explication et interprétabilité du modèle ML et IA

    Comment implémenter et interpréter le tracé de résumé de la forme du modèle de boîte noire à l'aide du modèle LR de substitution?

    Pour afficher le tracé de résumé de la forme du modèle de substitution de la boîte noire, le code ressemblerait ci-dessous.

    # Fit the explainer model  using the complex model and show the LIME explanation and score
    explanation = explainer.explain_instance(X_unseen_test.values[0], xgbr_model.predict)
    explanation.show_in_notebook(show_table=True, show_all=False)
    print(explanation.score)
    Copier après la connexion
    Copier après la connexion

    Explication et interprétabilité du modèle ML et IA

    À partir du tracé de résumé de la forme ci-dessus pour le modèle LR de substitution de la boîte noire, les éléments item_type et item_mrp sont parmi les caractéristiques les plus contributives avec le point_type ayant un impact neutre global tandis que l'élément_mrp semble tirer vers la main droite indiquant qu'il contribue à augmenter le résultat (c'est-à-dire item_outlet_sales).

    Comment implémenter et interpréter le tracé de dépendance de la forme pour le modèle LR simple de substitution noire?

    Pour implémenter le tracé de dépendance de la forme à l'aide du modèle de substitution LR, utilisez le code suivant.

    # plot single tree
    plot_tree(xgbr_model)
    plt.figure(figsize=(10,5))
    plt.show()
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion
    Copier après la connexion

    La sortie de cela ressemblera ci-dessous.

    Explication et interprétabilité du modèle ML et IA

    D'après le tracé ci-dessus, nous pouvons dire que pour le modèle LR de substitution de la boîte noire, le MRP a une tendance croissante pour les types de sortie 0 et 1 alors qu'il a une tendance décroissante pour les types de sortie 3.

    Tableau de comparaison des modèles

    Ci-dessous, nous examinerons le tableau pour comparer chaque modèle

    Aspect LIME SHAP Blackbox Surrogate LR Model XGBR Model (Complex)
    Explainability Local-level explainability for individual predictions Global-level and local-level explainability Limited explainability, no local-level insights Limited local-level interpretability
    Model Interpretation Uses synthetic dataset with perturbed values to analyze model’s decision rationale Uses game theory to evaluate feature contributions No local-level decision insights Global-level interpretability only
    Explanation Score Average explanation score = 0.6451 Provides clear insights into feature importance Lower explanation score compared to LIME XGBR Higher prediction accuracy but lower explanation
    Accuracy of Closeness to Predicted Value Matches predicted values closely in some cases Provides better accuracy with complex models Low accuracy of closeness compared to LIME Matches predicted values well but limited explanation
    Usage Helps diagnose and understand individual predictions Offers fairness and transparency in feature importance Not suitable for detailed insights Better for high-level insights, not specific
    Complexity and Explainability Tradeoff Easier to interpret but less accurate for complex models Higher accuracy with complex models, but harder to interpret Less accurate, hard to interpret Highly accurate but limited interpretability
    Features Explains local decisions and features with high relevance to original data Offers various plots for deeper model insights Basic model with limited interpretability Provides global explanation of model decisions
    Best Use Cases Useful for understanding decision rationale for individual predictions Best for global feature contribution and fairness Used when interpretability is not a major concern Best for higher accuracy at the cost of explainability
    Performance Analysis Provides a match with XGBR prediction but slightly lower accuracy Performs well but has a complexity-accuracy tradeoff Limited performance insights compared to LIME High prediction accuracy but with limited interpretability

    Insistance des caractéristiques perturbées de Lime et de l'explication du modèle

    Aussi, en analysant les valeurs perturbées au chaux, nous obtenons une certaine intuition sur la façon dont le chaux sélectionné les fonctionnalités, puis nous attribuons des poids perturbés et essayons de rapprocher les prédictions de l'original.

    apportant tous les modèles et observations de chaux (pour les 3 meilleures lignes et les fonctionnalités sélectionnées), nous suivons.

    Explication et interprétabilité du modèle ML et IA

    Explication et interprétabilité du modèle ML et IA

    À partir de ce qui précède, nous voyons que pour l'observation # 0, la prédiction du modèle XGBR d'origine et la prédiction du modèle XGBR chaux sont une correspondance, tandis que pour les mêmes valeurs de caractéristiques originales, les prédictions du modèle de substitution BlackBox pour l'observation # 0 sont loin. Dans le même temps, le modèle Lime XGBR a présenté un score d'explication élevé (similitude des fonctionnalités avec les fonctionnalités originales).

    La moyenne du score d'explication pour le modèle complexe de chaux XGBR est de 0,6451 et le modèle de chaux LR de substitution pour la boîte noire est de 0,5701. Dans ce cas, le score d'explication moyen pour la chaux XGBR est plus élevé que le modèle de boîte noire.

    Précision de la proximité de la valeur prédite

    Ci-dessous, nous avons analysé le% de précision de la proximité des valeurs prévues pour les trois modèles.

    Explication et interprétabilité du modèle ML et IA

    La précision% des valeurs prévues par le modèle LR simple et le modèle XGBR complexe de chaux sont les mêmes, les deux modèles atteignant une précision de 100% pour l'observation # 1. Cela indique que les valeurs prévues correspondent étroitement aux prédictions réelles faites par le modèle XGBR complexe. Généralement, une plus grande précision de proximité reflète un modèle plus précis.

    En comparant les valeurs prédites et réelles, une différence est observée. Pour l'observation n ° 3, la valeur prévue (2174,69) est significativement supérieure à la valeur réelle (803,33). De même, le% de précision de la proximité a été calculé pour les modèles LR complexes XGBR et Blackbox de Blackbox. Les résultats mettent en évidence des mesures de performances variables, comme détaillé dans le tableau.

    Explication et interprétabilité du modèle ML et IA

    d'en haut, nous voyons que, pour l'observation n ° 1, le modèle LR de substitution Blackbox a mieux fonctionné. En même temps pour les deux autres observations (# 2 et # 3), les deux performances du modèle sont égales.

    La performance moyenne du modèle XGBR complexe de chaux est d'environ 176 et le modèle LR de substitution Blackbox est d'environ 186.

    Par conséquent, nous pouvons dire que la précision du modèle complexe de chaux & lt; Précision du modèle de substitution Blackbox de Lime.

    Conclusion

    Le chaux et la forme sont des outils puissants qui améliorent l'explication de l'apprentissage automatique et des modèles d'IA. Ils rendent les modèles complexes ou noirs plus transparents. Lime se spécialise dans la fourniture de connaissances de niveau local sur le processus de prise de décision d’un modèle. Shap offre une vue plus large, expliquant les contributions des fonctionnalités aux niveaux mondial et local. Bien que la précision de Lime ne puisse pas toujours correspondre aux modèles complexes comme XGBR, il est inestimable pour comprendre les prédictions individuelles.

    D'un autre côté, l'approche basée sur la théorie de Game de Shap favorise l'équité et la transparence, mais peut parfois être plus difficile à interpréter. Les modèles Blackbox et les modèles complexes comme XGBR offrent une précision de prédiction plus élevée, mais souvent au prix d'une explicabilité réduite. En fin de compte, le choix entre ces outils dépend de l'équilibre entre la précision de la prédiction et l'interprétabilité du modèle, qui peut varier en fonction de la complexité du modèle utilisé.

    Les plats clés

    • Le chaux et la forme améliorent l'interprétabilité des modèles AI complexes.
    • Le citron vert est idéal pour obtenir des informations au niveau local des prédictions.
    • Shap fournit une compréhension plus globale de l'importance et de l'équité des fonctionnalités.
    • Une complexité du modèle plus élevée conduit souvent à une meilleure précision mais à une explicabilité réduite.
    • Le choix entre ces outils dépend du besoin de précision par rapport à l'interprétabilité.

    références

    Pour plus de détails, veuillez utiliser suivant

    • Repository de code source
    • limedocumentation
    • ShapDocumentation

    Les questions fréquemment posées

    Q1. Quelle est la différence entre l'explication et l'interprétabilité du modèle?

    a. Un interprète est quelqu'un qui traduit une langue par une personne qui ne comprend pas la langue. Par conséquent, le rôle de l'interprétabilité du modèle est de servir de traducteur et traduit les explications du modèle générées au format technique en humains non techniques de manière facile à compréhensible.
    L'exploitabilité du modèle est impliquée dans la génération d'explications du modèle pour sa prise de décision à une observation locale et au niveau mondial. Ainsi, l'interprétabilité du modèle aide à traduire les explications du modèle d'un format technique complexe en un format convivial.

    Q2. Pourquoi l'exploitabilité du modèle est-elle importante dans l'IA et la ML? 

    a. L'explication et l'interprétabilité du modèle ML et IA sont cruciales pour plusieurs raisons. Ils permettent la transparence et la confiance dans les modèles. Ils promeuvent également la collaboration et aident à identifier et à atténuer les vulnérabilités, les risques et les préjugés. De plus, l'explication facilite les problèmes de débogage et assurant le respect des réglementations et des normes éthiques. Ces facteurs sont particulièrement importants dans divers cas d'utilisation des entreprises, notamment la banque et la finance, les soins de santé, les véhicules entièrement autonomes et la vente au détail, comme discuté dans l'article.

    Q3. Tous les modèles peuvent-ils être rendus interprétables à l'aide de chaux et de forme?

    a. Oui, la chaux et la forme sont des modèles agnostiques. Cela signifie qu'ils peuvent être appliqués à n'importe quel modèle d'apprentissage automatique. Les deux outils améliorent l'explication et l'interprétabilité des modèles.

    Q4. Quels sont les défis dans la réalisation de l'explication du modèle?

    a. Le défi dans la réalisation de l'explication du modèle réside dans la recherche d'un équilibre entre la précision du modèle et les explications du modèle. Il est important de s'assurer que les explications sont interprétables par des utilisateurs non techniques. La qualité de ces explications doit être maintenue tout en atteignant une précision élevée du modèle.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Derniers articles par auteur
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal