如何重新缩放caffe中特征图的权重?
how to rescale the weight of the feature map in caffe?
在“Inside-Outside Net: Detecting Objects in Context with Skip Pooling and Recurrent Neural Networks”的论文中
他们使用skip connection概念连接conv3、conv4、conv5层的roi-pooled特征,但在连接之前,他们建议使用L2 NORM并重新缩放从这些层中提取的每个特征图,问题对我来说是如何确定池化特征的重新缩放值,可以使用哪个 caffe 层来实现这个?
您可以使用现有图层来计算特征图的 L2
范数。有关示例,请参见 。
您可以使用 "Scale"
层来缩放每个特征图。
在“Inside-Outside Net: Detecting Objects in Context with Skip Pooling and Recurrent Neural Networks”的论文中
他们使用skip connection概念连接conv3、conv4、conv5层的roi-pooled特征,但在连接之前,他们建议使用L2 NORM并重新缩放从这些层中提取的每个特征图,问题对我来说是如何确定池化特征的重新缩放值,可以使用哪个 caffe 层来实现这个?
您可以使用现有图层来计算特征图的 L2
范数。有关示例,请参见
您可以使用 "Scale"
层来缩放每个特征图。