Generativer Latenter Fluss

In dieser Arbeit schlagen wir den Generativen Latenten Fluss (GLF) vor, einen Algorithmus zur generativen Modellierung der Datenverteilung. GLF nutzt einen Auto-Encoder (AE), um latente Darstellungen der Daten zu lernen, und einen Normalisierenden Fluss, um die Verteilung der latenten Variablen auf die einer einfachen unabhängigen identisch verteilten (i.i.d.) Rauschquelle abzubilden. Im Gegensatz zu anderen auf Auto-Encodern basierenden generativen Modellen, die verschiedene Regularisierer verwenden, um die codierte latente Verteilung dem A-priori-Modell anzunähern, konstruiert unser Modell eine explizite Abbildung zwischen diesen beiden Verteilungen. Dies führt zu einer besseren Dichteanpassung und vermeidet dabei das Überregularisieren der latenten Variablen. Wir vergleichen unser Modell mit mehreren verwandten Techniken und zeigen, dass es viele relative Vorteile bietet, darunter schnelle Konvergenz, einstufiges Training und minimale Rekonstruktionsschwierigkeiten. Zudem untersuchen wir den Zusammenhang zwischen unserem Modell und dessen stochastischer Entsprechung und zeigen, dass unser Modell als ein verschwindender Rauschgrenzwert von VAEs mit Flussprior betrachtet werden kann. Quantitativ erzielt unsere Methode bei standardisierten Bewertungen eine erstklassige Stichprobenqualität unter AE-basierten Modellen in gängigen Datensätzen und ist wettbewerbsfähig im Vergleich zu Benchmarks von GANs.