HyperAIHyperAI
vor 3 Monaten

Verbesserte Denoising Diffusion Probabilistic Models

Alex Nichol, Prafulla Dhariwal
Verbesserte Denoising Diffusion Probabilistic Models
Abstract

Denoising Diffusion Probabilistic Models (DDPM) sind eine Klasse generativer Modelle, die kürzlich gezeigt haben, hervorragende Samples zu erzeugen. Wir zeigen, dass DDPMs durch einige einfache Modifikationen gleichzeitig konkurrenzfähige Log-Wahrscheinlichkeiten erreichen können, ohne die hohe Qualität der Samples zu beeinträchtigen. Zudem stellen wir fest, dass die Lernung der Varianzen des umgekehrten Diffusionsprozesses es ermöglicht, mit einer um eine Größenordnung geringeren Anzahl an Vorwärtsdurchläufen zu samplingen, wobei sich die Qualität der Samples nur geringfügig verschlechtert – ein entscheidender Vorteil für die praktische Anwendung dieser Modelle. Zusätzlich verwenden wir Präzision und Recall, um die Fähigkeit von DDPMs und GANs zu vergleichen, die Zielverteilung effektiv abzudecken. Schließlich zeigen wir, dass sowohl die Qualität der Samples als auch die Log-Wahrscheinlichkeit dieser Modelle glatt mit der Modellkapazität und der zur Verfügung stehenden Trainingsrechenleistung skaliert, was ihre einfache Skalierbarkeit ermöglicht. Wir stellen unseren Code unter https://github.com/openai/improved-diffusion zur Verfügung.