以下 python 个代码片段是否等效?

Are the following python code snippets equivalent?

以下内容与在 python 中实现神经网络有关:

def update_mini_batch(self, mini_batch):

    nabla_b = [np.zeros(b.shape) for b in self.biases]
    nabla_w = [np.zeros(w.shape) for w in self.weights]

    for x, y in mini_batch:
        delta_nabla_b, delta_nabla_w = self.backprop(x, y)
        nabla_b = [nb+dnb for nb, dnb in zip(nabla_b, delta_nabla_b)]  
        nabla_w = [nw+dnw for nw, dnw in zip(nabla_w, delta_nabla_w)]

在前两行中,它用零初始化了两个张量。 然后在下一个 for 循环中,它通过将其中的每个元素(为零)添加到另一个类似张量中的另一个元素来更新它们,这是由于反向传播函数。

对我来说这应该等同于

    for x, y in mini_batch:
        nabla_b, nabla_w = self.backprop(x, y)

但我真的不能确定。 运行 都成功并且代码取决于随机性。

参考:https://github.com/mnielsen/neural-networks-and-deep-learning

它们不等价。最上面的一个将对 minibatch 进行 nablas 求和。底部的将只保留最后一个样本的值。