为什么卷积神经网络核大小常被选为方阵
Why Convolutional NN kernel size is often selected as a square matrix
给定形状 (f1, f2, depth)
的过滤器,如果 f1 != f2
有什么含义?
通常选择方形滤镜只是因为没有偏好可以找到图案的方向。例如,它可以是水平线或垂直线,两者都可以是图像中的重要特征,如果它们很重要,网络应该捕获其中的任何一个。换句话说,您可能希望您的网络 对称 .
非对称滤波器在 Inception network. The idea is that n x n
filter has the same receptive field as a sequence of 1 x n
and n x 1
convolutions (called effective receptive field, see CS231n tutorial 中成功使用后,在过去几年变得更加流行),但后者需要较少的浮点运算并存储较少的参数。该架构在两个方向上仍然是对称的(垂直模式可以像水平模式一样容易发现),但这个技巧使它更有效率。
这是来自 Inception v2 的初始模块图片:
在较小的应用程序中,这种优化并不重要,没有理由采用如此复杂的架构并仅使用 n x n
个过滤器。
给定形状 (f1, f2, depth)
的过滤器,如果 f1 != f2
有什么含义?
通常选择方形滤镜只是因为没有偏好可以找到图案的方向。例如,它可以是水平线或垂直线,两者都可以是图像中的重要特征,如果它们很重要,网络应该捕获其中的任何一个。换句话说,您可能希望您的网络 对称 .
非对称滤波器在 Inception network. The idea is that n x n
filter has the same receptive field as a sequence of 1 x n
and n x 1
convolutions (called effective receptive field, see CS231n tutorial 中成功使用后,在过去几年变得更加流行),但后者需要较少的浮点运算并存储较少的参数。该架构在两个方向上仍然是对称的(垂直模式可以像水平模式一样容易发现),但这个技巧使它更有效率。
这是来自 Inception v2 的初始模块图片:
在较小的应用程序中,这种优化并不重要,没有理由采用如此复杂的架构并仅使用 n x n
个过滤器。