TensorFlow函数:tf.losses.sparse_softmax_cross_entropy

2018-09-11 15:38 更新

tf.losses.sparse_softmax_cross_entropy函数

tf.losses.sparse_softmax_cross_entropy(
    labels,
    logits,
    weights=1.0,
    scope=None,
    loss_collection=tf.GraphKeys.LOSSES,
    reduction=Reduction.SUM_BY_NONZERO_WEIGHTS
)

定义在:tensorflow/python/ops/losses/losses_impl.py.

使用tf.nn.sparse_softmax_cross_entropy_with_logits的交叉熵(cross-entropy)loss.

weights作为loss的系数.如果提供了标量,那么loss只是按给定值缩放.如果weights是形状为[batch_size]的张量,则loss权重适用于每个相应的样本.

参数:

  • labels:形状为[d_0, d_1, ..., d_{r-1}]的Tensor(其中,r是labels和结果的秩),并且有dtype int32或int64.labels中的每个条目必须是[0, num_classes)中的索引.当此操作在CPU上运行时,其他值将引发异常,并返回NaNGPU上相应的loss和梯度行.
  • logits:形状为[d_0, d_1, ..., d_{r-1}, num_classes],并且是dtype float32或float64的未缩放的日志概率.
  • weights:loss的系数.这必须是标量或可广播的labels(即相同的秩,每个维度是1或者是相同的).
  • scope:计算loss时执行的操作范围.
  • loss_collection:将添加loss的集合.
  • reduction:适用于loss的减少类型.

返回:

与logits具有相同类型的加权损失Tensor.如果reduction是NONE,它的形状与labels相同;否则,它是标量.

可能引发的异常:

  • ValueError:如果logits,labels和weights的形状不兼容,或者如果它们中的任何一个为None.
以上内容是否对您有帮助:
在线笔记
App下载
App下载

扫描二维码

下载编程狮App

公众号
微信公众号

编程狮公众号