训练全卷积神经网络的子补丁生成机制

sub patch generation mechanism for training fully convolutional neural network

我有一个图像集,由 300 个图像对组成,即原始图像和蒙版图像。典型的蒙版图像如下所示。每张图片的大小为 800*800。我正在尝试为此图像集训练一个完全卷积神经网络模型来执行语义分割。我正在尝试从原始图像生成小块 (256*256) 以构建训练集。对于这个补丁采样过程有什么推荐的策略吗?自然地,随机抽样是一种微不足道的方法。这里用黄色标记的区域,前景 class,通常占图像集中整个图像区域的 25%。它往往反映了一个不平衡的数据集。

如果你训练一个全卷积架构,假设 800x800 个输入和 25x25 个输出(在五个 2x2 个池化层之后,25=800/2^5)。尝试直接构建 25x25 输出并直接对其进行训练。您可以在 "positive" 标签的损失函数中添加更高的权重,以平衡它们与 "negative".

我绝对不推荐采样,因为这将是一个昂贵的过程并且不是真正的完全卷积。