用于图像分割的 Tensorflow:更改小批量大小会停止学习
Tensorflow for image segmentation: Changing minibatch size stops learning
我创建了一个用于图像分割的网络,尤其是脑肿瘤。带有代码的jupyter笔记本是here.
当我用 1 的小批量训练 CNN 时,我得到了一个相当不错的结果:
但是当我将大小更改为更大的值(2 或更大)时,结果很糟糕:
Tensorboard 显示损失的差异。显然 batchsize 为 2 的网络并没有最小化损失(蓝色)
关于为什么会出现这种情况有什么想法吗?
我发现了问题。我用张量板检查了我的图表,我注意到在 CONV1/S1 中我没有将 ReLu 的输出连接到下一层 (CONV1/S2),而是直接连接了 conv2d 的输出。
我更改了代码中的那一行,一切都按预期工作。
我创建了一个用于图像分割的网络,尤其是脑肿瘤。带有代码的jupyter笔记本是here.
当我用 1 的小批量训练 CNN 时,我得到了一个相当不错的结果:
但是当我将大小更改为更大的值(2 或更大)时,结果很糟糕:
Tensorboard 显示损失的差异。显然 batchsize 为 2 的网络并没有最小化损失(蓝色)
关于为什么会出现这种情况有什么想法吗?
我发现了问题。我用张量板检查了我的图表,我注意到在 CONV1/S1 中我没有将 ReLu 的输出连接到下一层 (CONV1/S2),而是直接连接了 conv2d 的输出。
我更改了代码中的那一行,一切都按预期工作。