**TensorFlow の `tf.nn.softmax` と `tf.nn.softmax_cross_entropy_with_logits` の違いは何ですか?**

DDD
リリース: 2024-10-25 19:50:29
オリジナル
688 人が閲覧しました

**What is the Difference Between `tf.nn.softmax` and `tf.nn.softmax_cross_entropy_with_logits` in TensorFlow?**

TensorFlow のロジットについて

TensorFlow の API ドキュメントでは、「ロジット」という用語が頻繁に登場します。ロジットは、ニューラル ネットワーク層によって生成されるスケールされていない活性化値を指します。これらは、softmax 関数を使用して確率に変換される前に対数確率として解釈されます。

tf.nn.softmax と tf.nn.softmax_cross_entropy_with_logits の区別

tf.nn.softmax

この関数は、ソフトマックス関数を要素ごとに入力テンソルに適用します。 Softmax は、入力値の合計が 1 になるように入力値を正規化し、確率を表すのに適した値にします。出力の形状は入力と同じままです。

tf.nn.softmax_cross_entropy_with_logits

この関数は、ソフトマックス演算とクロスエントロピー損失の計算を組み合わせます。内部でソフトマックス変換を実行し、予測された確率と真のラベルの間のクロスエントロピーを計算します。出力は、形状 [batch_size, 1] の概要メトリックです。

Key Difference

tf.nn.softmax_cross_entropy_with_logits は、ソフトマックス損失とクロスエントロピー損失の両方を計算するように設計されています。ワンステップで。ソフトマックスを手動で適用してからクロスエントロピー計算を行うよりも、数値安定性の問題をより効果的に処理できます。

tf.nn.softmax_cross_entropy_with_logits を使用する場合

  • 分類を実行するとき確率の予測が必要なタスク。
  • 損失関数としてクロスエントロピーを最小化し、ソフトマックスが最終層で使用される場合。
  • 単一クラスのラベルを使用する場合、tf.nn.sparse_softmax_cross_entropy_with_logitsがおすすめです。

以上が**TensorFlow の `tf.nn.softmax` と `tf.nn.softmax_cross_entropy_with_logits` の違いは何ですか?**の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ソース:php.cn
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
著者別の最新記事
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート
私たちについて 免責事項 Sitemap
PHP中国語ウェブサイト:福祉オンライン PHP トレーニング,PHP 学習者の迅速な成長を支援します!