无法理解 Keras ConvLSTM2D - 已编辑
Cannot understand Keras ConvLSTM2D - edited
我正在查看示例:https://github.com/fchollet/keras/blob/master/examples/conv_lstm.py
这个RNN实际上是在预测电影的下一帧,所以输出也应该是电影(根据输入的测试数据)。我想知道是否由于带有填充的转换层而丢失了信息。
比如底层的Tensorflow是padding bottom right,如果有大的padding:(n代表数字)
n n n n 0 0 0
n n n n 0 0 0
n n n n 0 0 0
n n n n 0 0 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0
当我们进行第二次转换时,右下角将始终为 0,这意味着反向传播将永远无法捕获那里的任何内容。如本例电影(一个方块在整个屏幕上移动),当验证标签位于右下角时是否会丢失信息?
问了一个Ph.D,答案是肯定的。做人工智能研究。
我正在查看示例:https://github.com/fchollet/keras/blob/master/examples/conv_lstm.py
这个RNN实际上是在预测电影的下一帧,所以输出也应该是电影(根据输入的测试数据)。我想知道是否由于带有填充的转换层而丢失了信息。 比如底层的Tensorflow是padding bottom right,如果有大的padding:(n代表数字)
n n n n 0 0 0
n n n n 0 0 0
n n n n 0 0 0
n n n n 0 0 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0
当我们进行第二次转换时,右下角将始终为 0,这意味着反向传播将永远无法捕获那里的任何内容。如本例电影(一个方块在整个屏幕上移动),当验证标签位于右下角时是否会丢失信息?
问了一个Ph.D,答案是肯定的。做人工智能研究。