[英]TensorFlow cross-entropy on tutorial
我刚刚阅读了TensorFlow
教程( https://www.tensorflow.org/versions/r0.8/tutorials/mnist/pros/index.html#deep-mnist-for-experts )。
我有两个问题:
为什么它使用cost function with y_ * log(y)
的cost function with y_ * log(y)
? 不应该是y_ * log(y) + (1-y_) * log(1-y)
?
TensorFlow
如何知道如何计算我使用的cost function
的gradient
? 难道我们不应该在某个地方告诉TensorFlow
如何计算gradient
?
谢谢!
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.