TensorFlow の API ドキュメントでは、「ロジット」という用語が頻繁に登場します。ロジットは、ニューラル ネットワーク層によって生成されるスケールされていない活性化値を指します。これらは、softmax 関数を使用して確率に変換される前に対数確率として解釈されます。
tf.nn.softmax
この関数は、ソフトマックス関数を要素ごとに入力テンソルに適用します。 Softmax は、入力値の合計が 1 になるように入力値を正規化し、確率を表すのに適した値にします。出力の形状は入力と同じままです。
tf.nn.softmax_cross_entropy_with_logits
この関数は、ソフトマックス演算とクロスエントロピー損失の計算を組み合わせます。内部でソフトマックス変換を実行し、予測された確率と真のラベルの間のクロスエントロピーを計算します。出力は、形状 [batch_size, 1] の概要メトリックです。
Key Difference
tf.nn.softmax_cross_entropy_with_logits は、ソフトマックス損失とクロスエントロピー損失の両方を計算するように設計されています。ワンステップで。ソフトマックスを手動で適用してからクロスエントロピー計算を行うよりも、数値安定性の問題をより効果的に処理できます。
tf.nn.softmax_cross_entropy_with_logits を使用する場合
以上が**TensorFlow の `tf.nn.softmax` と `tf.nn.softmax_cross_entropy_with_logits` の違いは何ですか?**の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。