变分自编码器:编码器的层数是否必须与解码器的层数相同?

Variational autoencoder: Does encoder must have the same number of layers as the decoder?

在变分自编码器中,编码器的层数是否必须与解码器的层数相同?我用编码器(密集)获得了更好的结果:54-10-5-3 和解码器(密集):3-5-10-25-35-45-54

不,不对称架构并不少见,例如[1、2、3 等]。

  1. 唐帅等"Exploring Asymmetric Encoder-Decoder Structure for Context-based Sentence Representation Learning." arXiv 预印本 arXiv:1710.10380 (2017)。 pdf

  2. LiNalisnick、Eric 和 Padhraic Smyth。 "Stick-breaking variational autoencoders." 国际学习表示会议 (ICLR)。 2017. pdf

  3. 纳什、查理和克里斯·基·威廉姆斯。 "The shape variational autoencoder: A deep generative model of part‐segmented 3D objects." 计算机图形学论坛。卷。 36. 2017年第5期. pdf

你问了一个很好的问题,答案是否定的。

由于Aldream已经指出了一些使用非对称架构的作品,我想指出与您的问题相关的理论工作。

我认为最好的解释来自 ICLR 2017 会议论文:"Variational Lossy Autoencoder"、Xi Chen 等人

第 2 部分是 must-read 部分。作者将变分自动编码器链接到 bit-back 编码,并表明平均代码长度(相当于变分下界)总是有额外的代码长度来自使用近似后验分布。 当VAE的解码器(即log-datalikelihood p(x|z))不需要q(z|x)就可以对数据进行建模时,VAE将忽略潜在变量!

这意味着如果我们有一个非常强大的解码器(例如与编码器相同的层数),那么 VAE 可能会通过简单地设置 q(z) 完全忽略学习 q(z|x) 的风险|x) 到先验 p(z),因此,将 KL 损失保持为 0.

更多详情,请阅读上面的论文。在我看来,VAE 与 bit-back 编码的联系很优雅。