在tensorflow API文档中,他们使用了一个叫做logits的关键字。是什么?很多方法都是这样写的:
tf.nn.softmax(logits, name=None)
如果logits只是一个通用的张量输入,为什么它被命名为logits?
其次,以下两种方法有什么区别?
tf.nn.softmax(logits, name=None)
tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None)
我知道tf.nn.softmax做什么,但不知道其他的。举个例子会很有帮助。
Tensorflow 2.0兼容答案:dga和stackoverflowuser2010的解释非常详细地介绍了Logits和相关的函数。
当在Tensorflow 1中使用这些函数时。X可以正常工作,但是如果您从1迁移代码。X(1.14, 1.15,等等)到2。X(2.0, 2.1,等等),使用这些函数会导致错误。
因此,如果我们从1迁移,则为上面讨论的所有函数指定2.0兼容调用。X到2。X,为了社区的利益。
1.x中的函数:
tf.nn.softmax
tf.nn.softmax_cross_entropy_with_logits
tf.nn.sparse_softmax_cross_entropy_with_logits
从1迁移时各自的函数。X到2.x:
tf.compat.v2.nn.softmax
tf.compat.v2.nn.softmax_cross_entropy_with_logits
tf.compat.v2.nn.sparse_softmax_cross_entropy_with_logits
有关从1迁移的更多信息。X到2。x,请参考本迁移指南。