最大池化 VS 总和池化
Max-pooling VS Sum-pooling
我部分理解最大池化,阅读Convolutional Neural Networks (LeNet):
Another important concept of CNNs is max-pooling, which is a form of
non-linear down-sampling. Max-pooling partitions the input image into
a set of non-overlapping rectangles and, for each such sub-region,
outputs the maximum value.
Sum-pooling 怎么样?我找不到任何容易理解的文章。
卷积神经网络在处理高维数据方面做得很好。由于图像或声音的不变性,将权重的数量限制为仅内核权重可以使学习更容易。但是,如果您仔细观察发生了什么,您可能会注意到,如果您不使用池化等技巧,那么在第一个卷积层之后,数据的维度可能会严重增加。
Max pooling 通过仅从卷积层的固定区域获取最大输入来降低数据的维度。 Sum pooling 以类似的方式工作 - 通过获取输入的总和而不是最大值。
这些方法之间的概念差异在于它们能够捕获的不变性类型。 最大池化 对池化区域中某些模式的存在很敏感。 Sum pooling(与 Mean pooling 成正比)测量给定区域中模式存在的平均值。
更新:
Sum pooling / Mean pooling 的子区域设置与 Max pooling 完全相同,但不是使用 max 函数你使用 sum / mean。您可以在有关池化的段落中阅读有关 here 的内容。
我部分理解最大池化,阅读Convolutional Neural Networks (LeNet):
Another important concept of CNNs is max-pooling, which is a form of non-linear down-sampling. Max-pooling partitions the input image into a set of non-overlapping rectangles and, for each such sub-region, outputs the maximum value.
Sum-pooling 怎么样?我找不到任何容易理解的文章。
卷积神经网络在处理高维数据方面做得很好。由于图像或声音的不变性,将权重的数量限制为仅内核权重可以使学习更容易。但是,如果您仔细观察发生了什么,您可能会注意到,如果您不使用池化等技巧,那么在第一个卷积层之后,数据的维度可能会严重增加。
Max pooling 通过仅从卷积层的固定区域获取最大输入来降低数据的维度。 Sum pooling 以类似的方式工作 - 通过获取输入的总和而不是最大值。
这些方法之间的概念差异在于它们能够捕获的不变性类型。 最大池化 对池化区域中某些模式的存在很敏感。 Sum pooling(与 Mean pooling 成正比)测量给定区域中模式存在的平均值。
更新:
Sum pooling / Mean pooling 的子区域设置与 Max pooling 完全相同,但不是使用 max 函数你使用 sum / mean。您可以在有关池化的段落中阅读有关 here 的内容。