繁体   English   中英

Tensorflow中的虚拟变量陷阱和交叉熵

[英]Dummy Variable Trap & Cross-entropy in Tensorflow

我有一个Tensorflow分类器,它在训练中使用交叉熵和one-hot真相标签。 这容易受到虚拟变量陷阱的影响吗? 如果是这样,我应该删除其中一个类吗? 如果不是,那么tf.nn.softmax_cross_entropy_with_logits不受虚拟变量陷阱的影响? 码:

batch_size = tf.shape(truthLabels_placeholder)[0]
indices = tf.expand_dims(tf.range(0, batch_size), 1)
labels = tf.expand_dims(truthLabels_placeholder, 1)
concated = tf.concat(axis=1, values=[indices, labels])
onehot_labels = tf.sparse_to_dense(concated, tf.stack([batch_size,shared.nClasses]), 1.0, 0.0)
cross_entropy = tf.nn.softmax_cross_entropy_with_logits(logits=logits, labels=onehot_labels)
loss = tf.reduce_mean(cross_entropy)

不,它不受虚拟变量陷阱的影响。 这些说明激发了使用交叉熵和softmax函数创建用于分类的损失函数的过程: http : //cs231n.github.io/linear-classify/#softmax

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM