去噪自动编码器和传统自动编码器有什么区别?
What is the difference between the denoising autoencoder and the conventional autoencoder?
为了训练去噪自动编码器,我在输入数据中构建了 x+n,在输出数据中构建了 x(x:原始数据,n:噪声)。学习完成后,我通过去噪自动编码器(x_test + n_test -> x_test)得到了去噪数据。
然后,作为测试,我通过将输入和输出数据构造为相同的值来训练自动编码器,就像传统的自动编码器
(x -> x)。
因此,我在测试阶段获得了类似于去噪自动编码器的去噪数据。
为什么通过传统的自动编码器去除噪声?
请告诉我这两个自动编码器之间的区别。
自动编码器的目的是将高维数据(例如图像)映射到压缩形式(即隐藏表示),并从隐藏表示构建原始图像。
一种去噪自动编码器,除了学习压缩数据(如自动编码器)外,它还学习去除图像中的噪声,即使输入有噪声也能表现良好。因此,去噪自动编码器比自动编码器更健壮+它们从数据中学到的特征比标准自动编码器更多。
自动编码器的用途之一是为深度神经网络找到良好的初始化(在 2000 年代后期)。然而,有了良好的初始化(例如 Xavier)和激活函数(例如 ReLU),它们的优势就消失了。现在它们更多地用于生成任务(例如变分自动编码器)
为了训练去噪自动编码器,我在输入数据中构建了 x+n,在输出数据中构建了 x(x:原始数据,n:噪声)。学习完成后,我通过去噪自动编码器(x_test + n_test -> x_test)得到了去噪数据。
然后,作为测试,我通过将输入和输出数据构造为相同的值来训练自动编码器,就像传统的自动编码器
(x -> x)。
因此,我在测试阶段获得了类似于去噪自动编码器的去噪数据。
为什么通过传统的自动编码器去除噪声?
请告诉我这两个自动编码器之间的区别。
自动编码器的目的是将高维数据(例如图像)映射到压缩形式(即隐藏表示),并从隐藏表示构建原始图像。
一种去噪自动编码器,除了学习压缩数据(如自动编码器)外,它还学习去除图像中的噪声,即使输入有噪声也能表现良好。因此,去噪自动编码器比自动编码器更健壮+它们从数据中学到的特征比标准自动编码器更多。
自动编码器的用途之一是为深度神经网络找到良好的初始化(在 2000 年代后期)。然而,有了良好的初始化(例如 Xavier)和激活函数(例如 ReLU),它们的优势就消失了。现在它们更多地用于生成任务(例如变分自动编码器)