
Dans cette étude, nous proposons le Generative Latent Flow (GLF), un algorithme pour la modélisation générative de la distribution des données. Le GLF utilise un Auto-encodeur (AE) pour apprendre les représentations latentes des données et un flux normalisant pour cartographier la distribution des variables latentes à celle d'un bruit i.i.d. simple. Contrairement à certains autres modèles génératifs basés sur l'Auto-encodeur, qui utilisent divers régularisateurs pour encourager la distribution latente encodée à correspondre à la distribution a priori, notre modèle construit explicitement une correspondance entre ces deux distributions, ce qui permet une meilleure adéquation de densité tout en évitant de sur-régulariser les variables latentes. Nous comparons notre modèle avec plusieurs techniques connexes et montrons qu'il présente de nombreux avantages relatifs, notamment une convergence rapide, une formation en une seule étape et un compromis minimal de reconstruction. Nous examinons également la relation entre notre modèle et sa contrepartie stochastique, et démontrons que notre modèle peut être considéré comme une limite de bruit nul des VAEs avec flux a priori. Quantitativement, selon des évaluations standardisées, notre méthode atteint un niveau d'excellence parmi les modèles basés sur l'Auto-encodeur sur des jeux de données couramment utilisés et est compétitive avec les références des GANs.