TensroFlow2 和 Keras 中不同的正向和反向传播

Different Forward and Backward Propagation in TensroFlow2 & Keras

我在前向传递中训练神经网络,随机一半时间使用不可微分激活,将激活四舍五入为 0 或 1(二进制),另一半使用可微分函数类似于 Sigmoid(确切地说是饱和 Sigmoid),但是在向后传递中,我们使用关于可微分函数的梯度,即使我们已经使用不可微分的离散函数进行前向传递。到目前为止我的代码是:

diff_active = tf.math.maximum(sat_sigmoid_term1(feature), sat_sigmoid_term2(feature))
binary_masks = diff_active 
rand_cond = tf.random.uniform([1,])
cond = tf.constant(rand_cond, shape=[1,])
if cond <0.5:
        with tf.GradientTape() as tape:
            non_diff_active = tf.grad_pass_through(tf.keras.layers.Lambda(lambda x: tf.where(tf.math.greater(x,0), x, tf.zeros_like(x))))(feature)
            grads = tape.gradient(non_diff_active , feature)
            binary_masks = non_diff_active  
tf.math.multiply(binary_masks, feature)  

我的直觉是,通过这种方式,始终应用可微激活(希望它的梯度始终包含在 bacl-prop 中)并且使用 tf.grad_pass_through() 我可以在替换它的同时应用不可微激活具有单位矩阵的反向传播。但是,我不确定我对 tf.grad_pass_through() 的使用或我对随机变量的处理方式是否正确,以及行为是否符合预期?

您可以使用 tf.custom_gradient

import tensorflow as tf

@tf.function
def sigmoid_grad(x):
    return tf.gradients(tf.math.sigmoid(x), x)[0]

@tf.custom_gradient
def sigmoid_or_bin(x, rand):
    rand = tf.convert_to_tensor(rand)
    out = tf.cond(rand > 0.5,
                  lambda: tf.math.sigmoid(x),
                  lambda: tf.dtypes.cast(x > 0, x.dtype))
    return out, lambda y: (y * sigmoid_grad(x), None)

# Test
tf.random.set_seed(0)
x = tf.random.uniform([4], -1, 1)
tf.print(x)
# [-0.416049719 -0.586867094 0.0707814693 0.122514963]
with tf.GradientTape() as t:
    t.watch(x)
    y = tf.math.sigmoid(x)
tf.print(y)
# [0.397462428 0.357354015 0.517688 0.530590475]
tf.print(t.gradient(y, x))
# [0.239486054 0.229652107 0.249687135 0.249064222]
with tf.GradientTape() as t:
    t.watch(x)
    y = sigmoid_or_bin(x, 0.2)
tf.print(y)
# [0 0 1 1]
tf.print(t.gradient(y, x))
# [0.239486054 0.229652107 0.249687135 0.249064222]
with tf.GradientTape() as t:
    t.watch(x)
    y = sigmoid_or_bin(x, 0.8)
tf.print(y)
# [0.397462428 0.357354015 0.517688 0.530590475]
tf.print(t.gradient(y, x))
# [0.239486054 0.229652107 0.249687135 0.249064222]