在 TensorFlow 的 API 文档中,经常会遇到术语“logits”。 Logits 是指神经网络层产生的未缩放激活值。在使用 softmax 函数转换为概率之前,它们被解释为对数概率。
tf.nn.softmax
此函数将 softmax 函数按元素应用于输入张量。 Softmax 对输入值进行归一化,使它们之和为 1,使它们适合表示概率。输出的形状与输入保持相同。
tf.nn.softmax_cross_entropy_with_logits
该函数将softmax操作与交叉熵损失的计算结合起来。它在内部执行 softmax 变换,然后计算预测概率和真实标签之间的交叉熵。输出是形状为 [batch_size, 1] 的汇总指标。
关键区别
tf.nn.softmax_cross_entropy_with_logits 旨在计算 softmax 和交叉熵损失只需一步。它比手动应用 softmax 再进行交叉熵计算更有效地处理数值稳定性问题。
何时使用 tf.nn.softmax_cross_entropy_with_logits
以上是**TensorFlow 中的'tf.nn.softmax”和'tf.nn.softmax_cross_entropy_with_logits”有什么区别?**的详细内容。更多信息请关注PHP中文网其他相关文章!