Dans la documentation de l'API TensorFlow, le terme « logits » est fréquemment rencontré. Les logits font référence à des valeurs d'activation non mises à l'échelle produites par les couches de réseau neuronal. Elles sont interprétées comme des log-probabilités avant d'être converties en probabilités à l'aide de la fonction softmax.
tf.nn.softmax
Cette fonction applique la fonction softmax élément par élément à un tenseur d'entrée. Softmax normalise les valeurs d'entrée afin qu'elles totalisent 1, ce qui les rend adaptées à la représentation des probabilités. La forme de la sortie reste la même que celle de l'entrée.
tf.nn.softmax_cross_entropy_with_logits
Cette fonction combine l'opération softmax avec le calcul de la perte d'entropie croisée. Il effectue en interne la transformation softmax, puis calcule l'entropie croisée entre les probabilités prédites et les véritables étiquettes. Le résultat est une métrique récapitulative de forme [batch_size, 1].
Différence clé
tf.nn.softmax_cross_entropy_with_logits est conçu pour calculer à la fois la perte softmax et la perte d'entropie croisée. en une seule étape. Il gère les problèmes de stabilité numérique plus efficacement que l'application manuelle de softmax suivie d'un calcul d'entropie croisée.
Quand utiliser tf.nn.softmax_cross_entropy_with_logits
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!