1 个月前

生成潜在流

Zhisheng Xiao; Qing Yan; Yali Amit
生成潜在流
摘要

在这项工作中,我们提出了生成潜在流(Generative Latent Flow, GLF),这是一种用于数据分布生成建模的算法。GLF 使用自动编码器(Auto-encoder, AE)来学习数据的潜在表示,并通过归一化流(normalizing flow)将潜在变量的分布映射到简单的独立同分布噪声。与一些其他基于自动编码器的生成模型不同,这些模型使用各种正则化器来促使编码后的潜在分布接近先验分布,而我们的模型明确构建了这两个分布之间的映射关系,从而在避免过度正则化潜在变量的同时实现了更好的密度匹配。我们将该模型与几种相关技术进行了比较,并展示了其许多相对优势,包括快速收敛、单阶段训练和最小的重构权衡。此外,我们还研究了该模型与其随机对应物之间的关系,并证明我们的模型可以被视为具有流先验的变分自编码器(Variational Auto-encoders, VAEs)在噪声趋近于零时的极限形式。定量上,在标准化评估中,我们的方法在常用数据集上达到了基于自动编码器模型中的最佳样本质量,并且与生成对抗网络(Generative Adversarial Networks, GANs)的基准相当。

生成潜在流 | 最新论文 | HyperAI超神经