繁体   English   中英

如何在 TensorFlow v2.0 中正确应用梯度

[英]How to properly apply gradients in TensorFlow v2.0

我正在尝试重现一些以前基于TensorFlow v1.x但使用TensorFlow v2.0神经转移教程。 出于某种原因,我相信由于某些数据格式,我无法使用Adam optimizer应用梯度。 源代码非常大,所以我试图只提供最相关的行,但如果有人询问完整代码,我会在此处添加。

这是优化器

    opt = tf.optimizers.Adam(learning_rate = 5, beta_1 = 0.99, epsilon = 1e-1)

当我尝试将梯度应用于初始变量时

    opt.apply_gradients(zip(grads, init_image))

我收到错误

!opt.apply_gradients(zip(grads, init_image))
*** TypeError: zip argument #2 must support iteration

这些是 zip 参数:

init_image
<tf.Variable 'Variable:0' shape=(1, 345, 512, 3) dtype=float32, numpy=
array([[[[...]]]], dtype=float32)>

grads
<tf.Tensor: shape=(1, 345, 512, 3), dtype=float32, numpy=
array([[[[...]]]], dtype=float32)>

正如你所看到的,形状和它应该是一样的, numpy里面的值是一些真实的值,而不是nans或类似的东西。

梯度计算如下:

    with tf.GradientTape() as tape: 
         ...computing all_loss...
    total_loss = all_loss[0]
    grads = tape.gradient(total_loss, init_image)

请提出任何建议。

这应该很容易解决 - 问题是您需要将渐变/变量打包在列表中才能使zip工作。 所以简单地使用

opt.apply_gradients(zip([grads], [init_image]))

添加一些解释——您的代码可能会在 Eager 模式下运行而不会崩溃,但它可能会产生不正确的结果(必须对此进行测试)。 使用tf.function时它肯定会崩溃(从您提供的代码中不清楚您是否使用它),因为张量在图形模式下不可迭代。 通过将它们包装在列表中,zip 现在可以遍历它们(即使只有一个元素)。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM