
摘要
基于得分的扩散模型通过逆转一个将数据逐步扩散为噪声的随机过程来生成样本,其训练过程通过最小化加权得分匹配损失的组合实现。尽管基于得分的扩散模型的对数似然可通过与连续归一化流(continuous normalizing flows)的联系进行有效计算,但加权得分匹配损失的组合本身并不直接优化对数似然。我们证明,对于一种特定的加权方案,该目标函数能够对负对数似然提供上界,从而实现对基于得分的扩散模型的近似最大似然训练。实验结果表明,最大似然训练在多个数据集、不同的随机过程以及多种模型架构下均能持续提升模型的似然性能。我们表现最优的模型在CIFAR-10和ImageNet 32×32数据集上,无需任何数据增强,分别取得了2.83和3.76比特/维度的负对数似然,其性能与当前最先进的自回归模型在这些任务上相当。