17 天前

输入扰动可降低扩散模型中的暴露偏差

Mang Ning, Enver Sangineto, Angelo Porrello, Simone Calderara, Rita Cucchiara
输入扰动可降低扩散模型中的暴露偏差
摘要

去噪扩散概率模型(Denoising Diffusion Probabilistic Models, DDPM)在生成质量方面表现极为出色,但其漫长的采样过程带来了高昂的计算开销。本文观察到,长采样链还会导致误差累积现象,这一问题与自回归文本生成中的“暴露偏差”(exposure bias)问题具有相似性。具体而言,我们发现训练阶段与推理阶段之间存在差异:训练时模型依赖于真实样本(ground truth),而推理时则依赖于先前生成的结果。为缓解该问题,我们提出一种简单但高效的数据增强训练正则化方法,即对真实样本施加扰动,以模拟推理过程中预测误差的累积效应。实验结果表明,该方法在不损害生成样本的召回率(recall)与精确率(precision)的前提下,显著提升了生成样本的质量,同时大幅缩短了训练与推理时间。例如,在 CelebA 64×64 数据集上,我们取得了 1.27 的新最优 FID 分数,同时节省了 37.5% 的训练时间。相关代码已公开,地址为:https://github.com/forever208/DDPM-IP。