Denoising Likelihood Score Matching für bedingte scorebasierte Datengenerierung

Viele bestehende bedingte scorebasierte Methoden zur Datengenerierung nutzen den Satz von Bayes, um die Gradienten einer logarithmischen Posterior-Dichte in eine Mischung von Scores zu zerlegen. Diese Ansätze erleichtern das Trainingsverfahren bedingter Score-Modelle, da eine Mischung von Scores getrennt mittels eines Score-Modells und eines Klassifikators geschätzt werden kann. Unser Analyse zeigt jedoch, dass die Trainingsziele für den Klassifikator in diesen Methoden zu einem gravierenden Score-Mismatch-Problem führen können, das der Situation entspricht, in der die geschätzten Scores von den wahren abweichen. Dieses Problem führt dazu, dass die Proben während des Diffusionsprozesses durch abweichende Scores irregeführt werden, was die Qualität der Generierung beeinträchtigt. Um dieses Problem zu beheben, formulieren wir ein neuartiges Trainingsziel für den Klassifikator, die sogenannte Denoising Likelihood Score Matching (DLSM)-Verlustfunktion, die darauf abzielt, die Gradienten der wahren logarithmischen Likelihood-Dichte zu treffen. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Methode auf den Benchmarks CIFAR-10 und CIFAR-100 im Vergleich zu vorherigen Ansätzen deutlich bessere Leistung bei mehreren zentralen Evaluationsmetriken erzielt. Wir schließen daher, dass die Verwendung der DLSM-Methode es ermöglicht, bedingte Scores präzise zu modellieren und den negativen Einfluss des Score-Mismatch-Problems signifikant zu verringern.