Diskrete Prädiktor-Korrektor-Diffusionsmodelle für die Bildsynthese

Wir stellen diskrete Predictor-Corrector-Verfahren für Diffusionsmodelle (DPC) vor, die Predictor-Corrector-Sampler in Gauss’schen Diffusionsmodellen auf den diskreten Fall erweitern. Predictor-Corrector-Sampler bilden eine Klasse von Sammlern für Diffusionsmodelle, die gegenüber ancestralen Sammlern durch die Korrektur der Verteilung der intermediären Diffusionszustände mittels MCMC-Methoden verbessert werden. In DPC wird der Langevin-Korrektor, der im diskreten Raum keine direkte Entsprechung besitzt, durch einen diskreten MCMC-Übergang ersetzt, der durch einen gelernten Korrektor-Kern definiert ist. Der Korrektor-Kern wird so trainiert, dass die Korrekturschritte asymptotisch, in Verteilung, gegen die korrekte Randverteilung der intermediären Diffusionszustände konvergieren. Mit DPC reevaluieren wir kürzlich vorgestellte transformerbasierte, nicht-autoregressive generative Modelle aus der Perspektive diskreter Diffusion und stellen fest, dass DPC die sich akkumulierenden Dekodierfehler, die durch die parallele Sampling von visuellen Token entstehen, reduzieren kann. Unsere Experimente zeigen, dass DPC bestehende Modelle im diskreten Latentraum für klassenbedingte Bildgenerierung auf ImageNet verbessert und sowohl kontinuierliche Diffusionsmodelle als auch GANs hinsichtlich etablierter Metriken und Nutzerpräferenzstudien übertrifft.