tf.nn.sampled_softmax_loss 中的损失函数

Loss function in tf.nn.sampled_softmax_loss

我有一个关于 Tensorflow 的问题:

tf.nn.sampled_softmax_loss中使用了哪个损失函数?

我相信是cross-entropy,但是官网上没有写。谁能证实我的猜测?

根据,好像是交叉熵

此外,sampled_softmax_losssoftmax_cross_entropy_with_logits 之间的主要区别(TF 中的标准 cross_entropy 损失)是第一个只考虑了词汇表的子集 V 来计算你的损失,而第二个考虑到你的整个词汇量。