零作为神经网络输入
Zeros as Neural Network Input
目前我正在尝试创建一个三层神经网络network.When我开始尝试训练 XOR,尽管我想到了这个:
double NewWeight(double oldWeight){
return oldWeight+(MeanSquaredError*input*learningRate);
}
这是根据http://natureofcode.com/book/chapter-10-neural-networks/
计算新权重的公式
首先,如果我的输入为零,无论错误如何,权重都将保持不变。这是使用偏差解决的吗?
其次,神经网络通常有两个以上的输入(例如在 XOR 中)。在那种情况下,您需要添加两个输入吗?或者也许找到具有单独输入的权重的平均值?
如果您建议我使用不同的新权重函数,请不要 post 方程式而不解释其背后的符号。谢谢!
首先,偏差不会改变任何东西。通常,偏差是通过一个额外的输入来实现的,该输入具有常数 1 和一个权重作为偏差。参见 https://en.wikipedia.org/wiki/Perceptron#Definitions。
其次,计算网络中每条边的权重。因此,如果您有两个输入,则计算每个输入的权重。
我会说如果你有 0 作为输入,你就没有信息。没有信息,您无法知道如何更改重量。您的函数对于 back-propagation.
是绝对正确的
目前我正在尝试创建一个三层神经网络network.When我开始尝试训练 XOR,尽管我想到了这个:
double NewWeight(double oldWeight){
return oldWeight+(MeanSquaredError*input*learningRate);
}
这是根据http://natureofcode.com/book/chapter-10-neural-networks/
计算新权重的公式首先,如果我的输入为零,无论错误如何,权重都将保持不变。这是使用偏差解决的吗?
其次,神经网络通常有两个以上的输入(例如在 XOR 中)。在那种情况下,您需要添加两个输入吗?或者也许找到具有单独输入的权重的平均值?
如果您建议我使用不同的新权重函数,请不要 post 方程式而不解释其背后的符号。谢谢!
首先,偏差不会改变任何东西。通常,偏差是通过一个额外的输入来实现的,该输入具有常数 1 和一个权重作为偏差。参见 https://en.wikipedia.org/wiki/Perceptron#Definitions。
其次,计算网络中每条边的权重。因此,如果您有两个输入,则计算每个输入的权重。
我会说如果你有 0 作为输入,你就没有信息。没有信息,您无法知道如何更改重量。您的函数对于 back-propagation.
是绝对正确的