
摘要
我们提出一种新型生成式自编码器模型——双对立损失生成自编码器(Dual Contradistinctive Generative Autoencoder, DC-VAE),通过引入双重对立损失机制,显著提升生成式自编码器在同时进行推理(重构)与合成(采样)任务时的性能。DC-VAE 模型融合了实例级判别损失(用于保持重构/合成结果的实例级保真度)与集合级对抗损失(用于增强重构/合成结果的集合级保真度),二者均具备“对立相异”特性,协同作用以优化生成质量。我们在多个分辨率下(包括 32×32、64×64、128×128 和 512×512)进行了大量实验,结果表明,DC-VAE 中的两种对立损失在无需改变网络结构的前提下,能够和谐协同,显著提升模型在定性和定量指标上的表现,优于基准变分自编码器(VAE)。在图像重构、图像合成、图像插值以及表征学习等任务中,DC-VAE 均取得了当前最优或具有竞争力的性能表现。该模型为通用型变分自编码器架构,可广泛适用于计算机视觉与机器学习领域的多种下游任务。