**TensorFlow 中的'tf.nn.softmax”和'tf.nn.softmax_cross_entropy_with_logits”有什么区别?**

DDD
发布: 2024-10-25 19:50:29
原创
688 人浏览过

**What is the Difference Between `tf.nn.softmax` and `tf.nn.softmax_cross_entropy_with_logits` in TensorFlow?**

了解 TensorFlow 中的 Logits

在 TensorFlow 的 API 文档中,经常会遇到术语“logits”。 Logits 是指神经网络层产生的未缩放激活值。在使用 softmax 函数转换为概率之前,它们被解释为对数概率。

tf.nn.softmax 和 tf.nn.softmax_cross_entropy_with_logits 之间的区别

tf.nn.softmax

此函数将 softmax 函数按元素应用于输入张量。 Softmax 对输入值进行归一化,使它们之和为 1,使它们适合表示概率。输出的形状与输入保持相同。

tf.nn.softmax_cross_entropy_with_logits

该函数将softmax操作与交叉熵损失的计算结合起来。它在内部执行 softmax 变换,然后计算预测概率和真实标签之间的交叉熵。输出是形状为 [batch_size, 1] 的汇总指标。

关键区别

tf.nn.softmax_cross_entropy_with_logits 旨在计算 softmax 和交叉熵损失只需一步。它比手动应用 softmax 再进行交叉熵计算更有效地处理数值稳定性问题。

何时使用 tf.nn.softmax_cross_entropy_with_logits

  • 执行分类时需要预测概率的任务。
  • 当最小化交叉熵作为损失函数并在最后一层使用 softmax 时。
  • 当使用单类标签时,tf.nn.sparse_softmax_cross_entropy_with_logits推荐。

以上是**TensorFlow 中的'tf.nn.softmax”和'tf.nn.softmax_cross_entropy_with_logits”有什么区别?**的详细内容。更多信息请关注PHP中文网其他相关文章!

来源:php.cn
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责声明 Sitemap
PHP中文网:公益在线PHP培训,帮助PHP学习者快速成长!