Flots normalisants continus à résolution multiple

Les travaux récents ont montré que les Équations différentielles ordinaires (ODE) neurales peuvent servir de modèles génératifs d’images en s’appuyant sur la perspective des flux de normalisation continus (Continuous Normalizing Flows, CNFs). Ces modèles permettent un calcul exact de la vraisemblance, ainsi qu’une génération inversible et une estimation de densité. Dans ce travail, nous introduisons une variante multi-résolution de ces modèles, appelée MRCNF (Multi-Resolution Continuous Normalizing Flows), en caractérisant la distribution conditionnelle de l’information supplémentaire nécessaire pour générer une image fine cohérente avec une image de faible résolution. Nous proposons une transformation entre résolutions qui préserve invariante le logarithme de la vraisemblance. Nous démontrons que cette approche atteint des valeurs de vraisemblance comparables sur divers jeux de données d’images, tout en offrant de meilleures performances aux résolutions élevées, avec un nombre réduit de paramètres, en n’utilisant qu’une seule carte graphique (GPU). En outre, nous examinons les propriétés hors distribution (out-of-distribution) des flux de normalisation continus (multi-résolution), et constatons qu’elles sont similaires à celles des autres modèles génératifs fondés sur la vraisemblance.