Maison > développement back-end > Tutoriel Python > **Quelle est la différence entre `tf.nn.softmax` et `tf.nn.softmax_cross_entropy_with_logits` dans TensorFlow ?**

**Quelle est la différence entre `tf.nn.softmax` et `tf.nn.softmax_cross_entropy_with_logits` dans TensorFlow ?**

DDD
Libérer: 2024-10-25 19:50:29
original
781 Les gens l'ont consulté

**What is the Difference Between `tf.nn.softmax` and `tf.nn.softmax_cross_entropy_with_logits` in TensorFlow?**

Comprendre les logits dans TensorFlow

Dans la documentation de l'API TensorFlow, le terme « logits » est fréquemment rencontré. Les logits font référence à des valeurs d'activation non mises à l'échelle produites par les couches de réseau neuronal. Elles sont interprétées comme des log-probabilités avant d'être converties en probabilités à l'aide de la fonction softmax.

Distinction entre tf.nn.softmax et tf.nn.softmax_cross_entropy_with_logits

tf.nn.softmax

Cette fonction applique la fonction softmax élément par élément à un tenseur d'entrée. Softmax normalise les valeurs d'entrée afin qu'elles totalisent 1, ce qui les rend adaptées à la représentation des probabilités. La forme de la sortie reste la même que celle de l'entrée.

tf.nn.softmax_cross_entropy_with_logits

Cette fonction combine l'opération softmax avec le calcul de la perte d'entropie croisée. Il effectue en interne la transformation softmax, puis calcule l'entropie croisée entre les probabilités prédites et les véritables étiquettes. Le résultat est une métrique récapitulative de forme [batch_size, 1].

Différence clé

tf.nn.softmax_cross_entropy_with_logits est conçu pour calculer à la fois la perte softmax et la perte d'entropie croisée. en une seule étape. Il gère les problèmes de stabilité numérique plus efficacement que l'application manuelle de softmax suivie d'un calcul d'entropie croisée.

Quand utiliser tf.nn.softmax_cross_entropy_with_logits

  • Lors de la classification tâches où la prédiction des probabilités est nécessaire.
  • Lors de la minimisation de l'entropie croisée, car la fonction de perte et softmax sont utilisés dans la couche finale.
  • Lorsque vous travaillez avec des étiquettes à classe unique, tf.nn.sparse_softmax_cross_entropy_with_logits est recommandé.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

source:php.cn
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal