卷积自动编码器如何学习多个class? (前数字数据)
how convolutional autoencoder learns multiple class? (ex digit data)
我知道CNN autoencoder是怎么工作的,但突然觉得很奇怪。
数字数据有10个class,这意味着autoencoder不仅可以学习二进制,还可以学习多个class。
不过我觉得autoencoder只能学一个class...
有人可以解释一下吗? :)
cnn 自动编码器示例(数字数据):https://blog.keras.io/building-autoencoders-in-keras.html
在这个例子中,数据集中的类是不相关的。自动编码器只是尝试使输出图像尽可能类似于输入图像。
谢谢大家,
我只是试验我的假设,我意识到它确实有效。
也就是说,我用 (0,1) 数字作为 class A,(0,1,2) 作为 class B 创建了自动编码器。
然后经过学习,重建图像显示数字图像“2”与0或1相比非常奇怪。因此,“2”与输入图像(0,1)不相似。
正如@ml_is_just_statistics所说,自动编码器只是将输入图像学习为一个class。
我知道CNN autoencoder是怎么工作的,但突然觉得很奇怪。 数字数据有10个class,这意味着autoencoder不仅可以学习二进制,还可以学习多个class。 不过我觉得autoencoder只能学一个class... 有人可以解释一下吗? :)
cnn 自动编码器示例(数字数据):https://blog.keras.io/building-autoencoders-in-keras.html
在这个例子中,数据集中的类是不相关的。自动编码器只是尝试使输出图像尽可能类似于输入图像。
谢谢大家, 我只是试验我的假设,我意识到它确实有效。 也就是说,我用 (0,1) 数字作为 class A,(0,1,2) 作为 class B 创建了自动编码器。 然后经过学习,重建图像显示数字图像“2”与0或1相比非常奇怪。因此,“2”与输入图像(0,1)不相似。 正如@ml_is_just_statistics所说,自动编码器只是将输入图像学习为一个class。