Convolution2D 层在 Keras 中究竟是如何工作的?
How exactly Convolution2D layer works in Keras?
我想自己写一个和Convolution2D一样的卷积层。
它在 Keras 中如何运作?
例如,如果 Convolution2D(64, 3, 3, activation='relu', input_shape=(3,226,226)
哪个等式将用于输出数据?
由于你输入的图像形状是(266, 266, 3)[tf]/(3, 266, 266)[th],滤波器个数是64,内核大小是3x3,对于padding ,我觉得默认的padding是1,默认的stride是1.
因此,输出为 266x266x64。
output_width=output_height=(width – filter + 2*padding)/stride + 1
在您的代码中,宽度=266,过滤器=3,填充=1,步幅=1。
如果您在理解基本概念时遇到任何困难,我想您可以阅读 this cs231n post 以获取更多信息。
如何理解conv的过程,点击here。
其实Keras并没有在conv2d中做卷积。
为了加快处理速度,将卷积运算转换为矩阵(行每列)乘法。
更多信息 here,在第 6 章。
我想自己写一个和Convolution2D一样的卷积层。 它在 Keras 中如何运作? 例如,如果 Convolution2D(64, 3, 3, activation='relu', input_shape=(3,226,226) 哪个等式将用于输出数据?
由于你输入的图像形状是(266, 266, 3)[tf]/(3, 266, 266)[th],滤波器个数是64,内核大小是3x3,对于padding ,我觉得默认的padding是1,默认的stride是1.
因此,输出为 266x266x64。
output_width=output_height=(width – filter + 2*padding)/stride + 1
在您的代码中,宽度=266,过滤器=3,填充=1,步幅=1。
如果您在理解基本概念时遇到任何困难,我想您可以阅读 this cs231n post 以获取更多信息。
如何理解conv的过程,点击here。
其实Keras并没有在conv2d中做卷积。 为了加快处理速度,将卷积运算转换为矩阵(行每列)乘法。 更多信息 here,在第 6 章。