Un problème important dans l'apprentissage automatique est de comprendre les raisons des prédictions des modèles. Bien que nous puissions connaître la fonction de l’algorithme grâce aux modèles d’algorithmes existants, il est difficile d’expliquer pourquoi le modèle produit de tels résultats de prédiction. Cependant, les algorithmes interprétatifs peuvent nous aider à identifier les résultats intéressants et les effets variables significatifs.
Les algorithmes explicatifs nous permettent de comprendre la relation entre les variables du modèle, plutôt que de simplement prédire les résultats. Par conséquent, en utilisant plusieurs algorithmes, nous pouvons mieux comprendre la relation entre les variables indépendantes et dépendantes dans un modèle donné.
La régression linéaire/logistique est une méthode statistique utilisée pour modéliser la relation linéaire entre une variable dépendante et une ou plusieurs variables indépendantes. Cette méthode peut nous aider à comprendre la relation entre les variables en testant la somme des coefficients.
L'arbre de décision est un algorithme d'apprentissage automatique qui prend des décisions en créant un modèle d'arbre. Il nous aide à comprendre la relation entre les variables en analysant les règles de fractionnement des branches.
Analyse en composantes principales (ACP) : Une technique de réduction de dimensionnalité qui projette les données dans un espace de faible dimension tout en conservant autant de variance que possible. La PCA peut être utilisée pour simplifier les données ou déterminer l’importance des fonctionnalités.
LIME (Local Interpretable Model-Agnostic Explanations) : expliquez les prédictions de tout modèle d'apprentissage automatique en rapprochant le modèle autour des prédictions en construisant des modèles plus simples à l'aide de techniques telles que la régression linéaire ou les arbres de décision.
SHAPLEY (Explications Shapley Additive) : Expliquez les prédictions de n'importe quel modèle d'apprentissage automatique en calculant la contribution de chaque fonctionnalité à la prédiction à l'aide d'une méthode basée sur le concept de « contribution marginale ». Dans certains cas, il est plus précis que SHAP.
SHAP (Shapley Approximation) : Une méthode de prédiction qui explique tout modèle d'apprentissage automatique en estimant l'importance de chaque fonctionnalité dans la prédiction. SHAP utilise une méthode appelée « jeu commun » pour approximer les valeurs de Shapley et est généralement plus rapide que SHAPLEY.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!