La matrice de confusion est un puissant outil d'analyse prédictive en apprentissage automatique qui est utilisé pour résumer le nombre de prédictions correctes et incorrectes par un classificateur dans une tâche de classification binaire.
En termes simples, « Confusion Matrix est une mesure des performances d'un algorithme d'apprentissage automatique ».
En visualisant la matrice de confusion, nous pouvons observer les valeurs diagonales pour déterminer la précision du modèle et évaluer le nombre de classifications précises.
Si vous considérez la structure de la matrice, la taille de la matrice est proportionnelle au nombre de classes de sortie.
La matrice de confusion se présente sous forme matricielle, avec des colonnes représentant les valeurs prédites et des lignes représentant les valeurs réelles, résumant les résultats de prédiction du modèle de classification.
Mesurer la matrice de confusion permet d'évaluer l'exactitude et les types d'erreurs d'un modèle de classification.
1. Fournissez des informations sur les erreurs commises par le classificateur et les types d'erreurs commises.
2. Réfléchissez à la confusion du modèle de classification lorsque vous faites des prédictions.
3. Aide à surmonter les limites de précision de la classification des déploiements séparés.
4. La matrice de confusion est très adaptée au calcul des courbes de rappel, de précision, d'exactitude et d'AUC-ROC.
1 Précision : la précision explique combien de valeurs correctement prédites sont réellement positives. En termes simples, il donne le nombre de sorties correctes fournies par le modèle parmi toutes les valeurs positives correctement prédites.
Il détermine si le modèle est fiable et la formule de calcul de la précision est TP/(TP+FP).
2. Rappel : Le rappel décrit le nombre de valeurs positives réelles correctement prédites à partir du modèle. La formule de calcul du taux de rappel est TP/(TP+FN).
L'augmentation de la précision réduit le rappel et vice versa, c'est ce qu'on appelle le compromis précision/rappel.
3. Précision : c'est l'un des paramètres importants pour déterminer la précision d'un problème de classification. Il explique la fréquence à laquelle le modèle prédit le résultat correct et peut mesurer le nombre de prédictions correctes faites pour le classificateur par rapport à celles faites par le classificateur. . Le ratio des totaux prévus. Classificateur. La formule est :
Précision : (TP+TN)/(TP+TN+FP+FN)
4. Mesure F : Pour la situation où deux modèles ont une faible précision et un rappel élevé ou une précision élevée et un rappel faible, Il est très facile de comparer ces modèles, donc pour résoudre ce problème, nous pouvons déployer le F-score. Le F-score est la moyenne harmonique de la précision et du rappel.
En calculant le F-score, nous pouvons évaluer simultanément le rappel et la précision. De plus, si le rappel est égal à la précision, alors le score F est maximum et peut être calculé à l'aide de la formule suivante : F-mesure = (2*Rappel*précision)/ (Rappel + Précision)
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!