In der API-Dokumentation von TensorFlow kommt der Begriff „Logits“ häufig vor. Logits beziehen sich auf unskalierte Aktivierungswerte, die von neuronalen Netzwerkschichten erzeugt werden. Sie werden als Log-Wahrscheinlichkeiten interpretiert, bevor sie mithilfe der Softmax-Funktion in Wahrscheinlichkeiten umgewandelt werden.
tf.nn.softmax
Diese Funktion wendet die Softmax-Funktion elementweise auf einen Eingabetensor an. Softmax normalisiert die Eingabewerte so, dass sie in der Summe 1 ergeben, wodurch sie für die Darstellung von Wahrscheinlichkeiten geeignet sind. Die Form der Ausgabe bleibt die gleiche wie die der Eingabe.
tf.nn.softmax_cross_entropy_with_logits
Diese Funktion kombiniert die Softmax-Operation mit der Berechnung des Kreuzentropieverlusts. Es führt intern die Softmax-Transformation durch und berechnet dann die Kreuzentropie zwischen den vorhergesagten Wahrscheinlichkeiten und den wahren Bezeichnungen. Die Ausgabe ist eine zusammenfassende Metrik mit der Form [batch_size, 1].
Schlüsselunterschied
tf.nn.softmax_cross_entropy_with_logits wurde entwickelt, um sowohl den Softmax- als auch den Kreuzentropieverlust zu berechnen in einem einzigen Schritt. Probleme mit der numerischen Stabilität werden dadurch effektiver gelöst als die manuelle Anwendung von Softmax mit anschließender Kreuzentropieberechnung.
Wann ist tf.nn.softmax_cross_entropy_with_logits zu verwenden?
Das obige ist der detaillierte Inhalt von**Was ist der Unterschied zwischen „tf.nn.softmax' und „tf.nn.softmax_cross_entropy_with_logits' in TensorFlow?**. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!