Reflektierte Diffusionsmodelle

Score-basierte Diffusionsmodelle lernen, eine stochastische Differentialgleichung (SDE) rückwärts zu integrieren, die Daten in Rauschen abbildet. Für komplexe Aufgaben kann sich jedoch numerische Fehler akkumulieren und zu stark unrealistischen Proben führen. Vorangegangene Arbeiten reduzieren diesen Drift durch Thresholding, bei dem nach jedem Diffusions-Schritt auf den natürlichen Datenraum (z. B. Pixelraum bei Bildern) projiziert wird. Dies führt jedoch zu einer Diskrepanz zwischen Trainings- und Generierungsprozess. Um Datenbeschränkungen prinzipiell zu integrieren, stellen wir Reflected Diffusion Models vor, die stattdessen eine reflektierte stochastische Differentialgleichung rückwärts integrieren, die sich auf dem Träger der Daten entwickelt. Unser Ansatz lernt die gestörte Score-Funktion über eine verallgemeinerte Score-Matching-Verlustfunktion und erweitert zentrale Komponenten herkömmlicher Diffusionsmodelle, darunter Diffusion-Guidance, likelihood-basiertes Training und ODE-Sampling. Zudem schließen wir die theoretische Lücke zu Thresholding: Solche Verfahren entsprechen lediglich Diskretisierungen reflektierter SDEs. Auf Standard-Benchmarks für Bilder ist unsere Methode wettbewerbsfähig oder übertrifft die State-of-the-Art-Methode ohne Architekturmodifikationen. Für classifier-free Guidance ermöglicht unser Ansatz schnelles, exaktes Sampling mittels ODEs und erzeugt unter hohen Guidance-Gewichten treuerere Proben.