无法在 Torch 的 SpatialConvolution 中找出 nInputPlane?
Unable to figure out nInputPlane in SpatialConvolution in torch?
空间卷积的文档将其定义为
module = nn.SpatialConvolution(nInputPlane, nOutputPlane, kW, kH, [dW], [dH], [padW], [padH])
nInputPlane:输入 forward() 的图像中预期的输入平面数。
nOutputPlane:卷积层将产生的输出平面的数量。
我没有任何使用 torch 的经验,但我想我在 keras 中使用过类似的功能
Convolution2D(64, 3, 3, border_mode='same', input_shape=(3, 256, 256))
它以 rgb 中 256*256 的图像形状作为输入。
我已经阅读了 Spatial Convolution in torch 的用法,但无法弄清楚 nInputPlane 和 nOutputPlane 参数对应的是什么?
local convLayer = nn.SpatialConvolutionMM(384, 384, 1, 1, 1, 1, 0, 0)
上面的代码中这384,384代表什么?
如果我说的不是普通话你可以参考this。
nIputPlane
是进入卷积的层数,nOutputPlane
是卷积出来的层数。如果你有一个 rgb 图像 nInputPlane = 3
(假设你的张量设置正确)。 nOutputPlane
可以是您希望从空间卷积中得出的任意层数,但当然要确保下一层输入等于 nOutputPlane
。
如果不清楚,我会推荐 60-minute blitz。
空间卷积的文档将其定义为
module = nn.SpatialConvolution(nInputPlane, nOutputPlane, kW, kH, [dW], [dH], [padW], [padH])
nInputPlane:输入 forward() 的图像中预期的输入平面数。
nOutputPlane:卷积层将产生的输出平面的数量。
我没有任何使用 torch 的经验,但我想我在 keras 中使用过类似的功能
Convolution2D(64, 3, 3, border_mode='same', input_shape=(3, 256, 256))
它以 rgb 中 256*256 的图像形状作为输入。
我已经阅读了 Spatial Convolution in torch 的用法,但无法弄清楚 nInputPlane 和 nOutputPlane 参数对应的是什么?
local convLayer = nn.SpatialConvolutionMM(384, 384, 1, 1, 1, 1, 0, 0)
上面的代码中这384,384代表什么?
如果我说的不是普通话你可以参考this。
nIputPlane
是进入卷积的层数,nOutputPlane
是卷积出来的层数。如果你有一个 rgb 图像 nInputPlane = 3
(假设你的张量设置正确)。 nOutputPlane
可以是您希望从空间卷积中得出的任意层数,但当然要确保下一层输入等于 nOutputPlane
。
如果不清楚,我会推荐 60-minute blitz。