Modèles améliorés de diffusion probabiliste pour le débruitage

Les modèles probabilistes diffusifs débruitants (DDPM) constituent une catégorie de modèles génératifs qui ont récemment démontré leur capacité à produire des échantillons de haute qualité. Nous montrons qu’en apportant quelques modifications simples, les DDPM peuvent également atteindre des log-vraisemblances compétitives tout en préservant une qualité d’échantillonnage élevée. En outre, nous constatons que l’apprentissage des variances du processus de diffusion inverse permet d’effectuer des échantillonnages avec un nombre de passages avant réduit d’un ordre de grandeur, sans altérer significativement la qualité des échantillons — une amélioration cruciale pour le déploiement pratique de ces modèles. Nous utilisons également les mesures de précision et de rappel pour comparer la capacité des DDPM et des GAN à couvrir la distribution cible. Enfin, nous démontrons que la qualité des échantillons et la vraisemblance de ces modèles évoluent de manière fluide avec la capacité du modèle et les ressources de calcul consacrées à l’entraînement, ce qui en fait des modèles facilement évolutifs. Nous mettons notre code à disposition à l’adresse suivante : https://github.com/openai/improved-diffusion