计算机科学 > 机器学习
[提交于 2025年8月5日
]
标题: 变分自编码器的零方差梯度
标题: Zero-Variance Gradients for Variational Autoencoders
摘要: 训练深度生成模型,如变分自编码器(VAEs),通常受到需要通过潜在变量的随机采样进行梯度反向传播的阻碍,这一过程会固有地引入估计方差,这可能会减缓收敛并降低性能。 在本文中,我们提出了一种新的观点,绕过了这个问题,我们称之为静默梯度。 与其改进随机估计器,我们利用特定的解码器架构来解析地计算期望ELBO,从而得到一个零方差的梯度。 我们首先为这种方法提供了理论基础,并在具有线性解码器的受控环境中展示了其优于现有估计器的优势。 为了将我们的方法推广到使用复杂、富有表现力的解码器的实际应用中,我们引入了一种新的训练动态,该动态在早期阶段使用精确的零方差梯度来指导编码器的训练,随后逐渐过渡到标准的随机估计器。 我们的实验表明,这种技术在多个数据集上 consistently 提高了现有基线模型的性能,包括重参数化、Gumbel-Softmax 和 REINFORCE。 这项工作通过结合解析计算的稳定性与深度非线性架构的表现力,为训练生成模型开辟了一个新方向。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.