Generative Modeling mit bayesscher Stichprobenschätzung

Wir leiten ein neues generatives Modell aus der iterativen Gauss’schen Nach-erwartungsschätzung ab. Indem wir die generierte Stichprobe als eine unbekannte Variable betrachten, können wir den Stichprozess in der Sprache der bayesschen Wahrscheinlichkeit formulieren. Unser Modell verwendet eine Folge von Vorhersage- und Nach-erwartungsaktualisierungsschritten, um iterativ die unbekannte Stichprobe von einer breiten Ausgangsannahme ausgehend immer genauer einzuschränken. Neben einer strengen theoretischen Analyse zeigen wir zudem eine Verbindung zwischen unserem Modell und Diffusionsmodellen auf und beweisen, dass es Bayes’sche Flow-Netzwerke (Bayesian Flow Networks, BFNs) als Spezialfall beinhaltet. In unseren Experimenten demonstrieren wir, dass unser Modell die Stichprobengüte auf ImageNet32 sowohl gegenüber BFNs als auch gegenüber den eng verwandten Variational Diffusion Models verbessert, während gleichzeitig die Log-Wahrscheinlichkeiten auf ImageNet32 und CIFAR10 auf gleichem Niveau bleiben. Den Quellcode finden Sie unter https://github.com/martenlienen/bsi.