以下 python 个代码片段是否等效?
Are the following python code snippets equivalent?
以下内容与在 python 中实现神经网络有关:
def update_mini_batch(self, mini_batch):
nabla_b = [np.zeros(b.shape) for b in self.biases]
nabla_w = [np.zeros(w.shape) for w in self.weights]
for x, y in mini_batch:
delta_nabla_b, delta_nabla_w = self.backprop(x, y)
nabla_b = [nb+dnb for nb, dnb in zip(nabla_b, delta_nabla_b)]
nabla_w = [nw+dnw for nw, dnw in zip(nabla_w, delta_nabla_w)]
在前两行中,它用零初始化了两个张量。
然后在下一个 for 循环中,它通过将其中的每个元素(为零)添加到另一个类似张量中的另一个元素来更新它们,这是由于反向传播函数。
对我来说这应该等同于
for x, y in mini_batch:
nabla_b, nabla_w = self.backprop(x, y)
但我真的不能确定。 运行 都成功并且代码取决于随机性。
参考:https://github.com/mnielsen/neural-networks-and-deep-learning
它们不等价。最上面的一个将对 minibatch 进行 nablas 求和。底部的将只保留最后一个样本的值。
以下内容与在 python 中实现神经网络有关:
def update_mini_batch(self, mini_batch):
nabla_b = [np.zeros(b.shape) for b in self.biases]
nabla_w = [np.zeros(w.shape) for w in self.weights]
for x, y in mini_batch:
delta_nabla_b, delta_nabla_w = self.backprop(x, y)
nabla_b = [nb+dnb for nb, dnb in zip(nabla_b, delta_nabla_b)]
nabla_w = [nw+dnw for nw, dnw in zip(nabla_w, delta_nabla_w)]
在前两行中,它用零初始化了两个张量。 然后在下一个 for 循环中,它通过将其中的每个元素(为零)添加到另一个类似张量中的另一个元素来更新它们,这是由于反向传播函数。
对我来说这应该等同于
for x, y in mini_batch:
nabla_b, nabla_w = self.backprop(x, y)
但我真的不能确定。 运行 都成功并且代码取决于随机性。
参考:https://github.com/mnielsen/neural-networks-and-deep-learning
它们不等价。最上面的一个将对 minibatch 进行 nablas 求和。底部的将只保留最后一个样本的值。