如何快速检查在训练期间更新了哪些张量流变量,哪些变量被冻结了?
How can I quickly check which tensorflow variables are updated during training and which are frozen?
我相信在很多情况下,我们需要冻结tensorflow图中的一些层并保持其他层可训练。
有没有一种方法可以快速检查网络是否按照我们预期的那样训练?比如frozen layer里面的变量在训练的时候其实并没有更新。
我正在使用以下方法来冻结范围 "ABC" 中的所有变量:
with slim.arg_scope(inception.inceptionb_v2_arg_scope()):
with tf.variable_scope('ABC'):
_, end_points = getattr(inception, 'inception_v2'(..., is_training = False))
......
trainables = [v for v in tf.trainable_variables() if 'ABC/' not in v.name]
optimizer = tf.train.AdamOptimizer().minimize(loss, var_list= trainables)
快速确认这些变量在训练期间确实没有改变的建议方法是什么?
您可以在几次迭代后检查它们:
frozen_variables = [v for v in tf.trainable_variables() if 'ABC/' in v.name]
tmp_frozen_variables_np = sess.run(frozen_variables)
# Training Code
assert np.allclose(tmp_frozen_variables_np, sess.run(frozen_variables))
但是,只要它们不在优化器的 var 列表中,您应该没问题。
我相信在很多情况下,我们需要冻结tensorflow图中的一些层并保持其他层可训练。
有没有一种方法可以快速检查网络是否按照我们预期的那样训练?比如frozen layer里面的变量在训练的时候其实并没有更新。
我正在使用以下方法来冻结范围 "ABC" 中的所有变量:
with slim.arg_scope(inception.inceptionb_v2_arg_scope()):
with tf.variable_scope('ABC'):
_, end_points = getattr(inception, 'inception_v2'(..., is_training = False))
......
trainables = [v for v in tf.trainable_variables() if 'ABC/' not in v.name]
optimizer = tf.train.AdamOptimizer().minimize(loss, var_list= trainables)
快速确认这些变量在训练期间确实没有改变的建议方法是什么?
您可以在几次迭代后检查它们:
frozen_variables = [v for v in tf.trainable_variables() if 'ABC/' in v.name]
tmp_frozen_variables_np = sess.run(frozen_variables)
# Training Code
assert np.allclose(tmp_frozen_variables_np, sess.run(frozen_variables))
但是,只要它们不在优化器的 var 列表中,您应该没问题。