解释卷积神经网络架构中的全连接层
Interpreting fully connected layer in convolutional Neural network architecture
我正在尝试解释这个神经网络架构
3×3×32卷积
2×2 最大池
辍学
3×3×64 卷积
2×2 最大池
辍学
展平
1×128全连接
辍学
128 × 10 全连接
软最大
我这里搞糊涂了1×128 Full connected和128×10 Fully connected是什么意思?
使用扁平化操作后,输出为(None, x)
接下来在128个节点的全连接(FC)层中,x通过128个神经元(节点)中的每一个
最后,将128个节点的输出分别传递给10个节点的FC层,并进行softmax激活
这是一个可视化图,希望对您有所帮助
我正在尝试解释这个神经网络架构
3×3×32卷积 2×2 最大池 辍学 3×3×64 卷积 2×2 最大池 辍学 展平 1×128全连接 辍学 128 × 10 全连接 软最大
我这里搞糊涂了1×128 Full connected和128×10 Fully connected是什么意思?
使用扁平化操作后,输出为(None, x)
接下来在128个节点的全连接(FC)层中,x通过128个神经元(节点)中的每一个
最后,将128个节点的输出分别传递给10个节点的FC层,并进行softmax激活
这是一个可视化图,希望对您有所帮助