如何在 TensorFlow v2.0 中正确应用渐变
How to properly apply gradients in TensorFlow v2.0
我正在尝试重现一些以前基于 TensorFlow v1.x
但使用 TensorFlow v2.0
的神经迁移教程。
出于某种原因,我认为由于某些数据格式,我无法使用 Adam optimizer
应用渐变。
源代码非常大,所以我尽量只给出最相关的行,但如果有人询问完整代码,我会在此处添加。
这是优化器
opt = tf.optimizers.Adam(learning_rate = 5, beta_1 = 0.99, epsilon = 1e-1)
当我尝试使用
将渐变应用于初始变量时
opt.apply_gradients(zip(grads, init_image))
我遇到错误
!opt.apply_gradients(zip(grads, init_image))
*** TypeError: zip argument #2 must support iteration
这些是 zip 参数:
init_image
<tf.Variable 'Variable:0' shape=(1, 345, 512, 3) dtype=float32, numpy=
array([[[[...]]]], dtype=float32)>
grads
<tf.Tensor: shape=(1, 345, 512, 3), dtype=float32, numpy=
array([[[[...]]]], dtype=float32)>
如您所见,形状与应有的相同,numpy
中的值是一些实际值,而不是 nans
或类似的值。
梯度计算方法:
with tf.GradientTape() as tape:
...computing all_loss...
total_loss = all_loss[0]
grads = tape.gradient(total_loss, init_image)
有什么建议吗
这应该很容易解决 -- 问题是您需要将 gradients/variables 打包到列表中,zip
才能工作。所以只需使用
opt.apply_gradients(zip([grads], [init_image]))
添加一些解释——您的代码 可能 运行 在 eager 模式下不会崩溃,但它可能会产生不正确的结果(必须对此进行测试)。使用 tf.function
时肯定会崩溃(从您提供的代码中不清楚您是否正在使用它),因为张量在图形模式下不可迭代。通过将它们包装在列表中,zip 现在可以迭代它们(即使只有一个元素)。
我正在尝试重现一些以前基于 TensorFlow v1.x
但使用 TensorFlow v2.0
的神经迁移教程。
出于某种原因,我认为由于某些数据格式,我无法使用 Adam optimizer
应用渐变。
源代码非常大,所以我尽量只给出最相关的行,但如果有人询问完整代码,我会在此处添加。
这是优化器
opt = tf.optimizers.Adam(learning_rate = 5, beta_1 = 0.99, epsilon = 1e-1)
当我尝试使用
将渐变应用于初始变量时 opt.apply_gradients(zip(grads, init_image))
我遇到错误
!opt.apply_gradients(zip(grads, init_image))
*** TypeError: zip argument #2 must support iteration
这些是 zip 参数:
init_image
<tf.Variable 'Variable:0' shape=(1, 345, 512, 3) dtype=float32, numpy=
array([[[[...]]]], dtype=float32)>
grads
<tf.Tensor: shape=(1, 345, 512, 3), dtype=float32, numpy=
array([[[[...]]]], dtype=float32)>
如您所见,形状与应有的相同,numpy
中的值是一些实际值,而不是 nans
或类似的值。
梯度计算方法:
with tf.GradientTape() as tape:
...computing all_loss...
total_loss = all_loss[0]
grads = tape.gradient(total_loss, init_image)
有什么建议吗
这应该很容易解决 -- 问题是您需要将 gradients/variables 打包到列表中,zip
才能工作。所以只需使用
opt.apply_gradients(zip([grads], [init_image]))
添加一些解释——您的代码 可能 运行 在 eager 模式下不会崩溃,但它可能会产生不正确的结果(必须对此进行测试)。使用 tf.function
时肯定会崩溃(从您提供的代码中不清楚您是否正在使用它),因为张量在图形模式下不可迭代。通过将它们包装在列表中,zip 现在可以迭代它们(即使只有一个元素)。