ContextFlow++ : Modèles génératifs basés sur un flux généraliste-spécialiste avec codage de contexte à variables mixtes

Les modèles génératifs basés sur les flux normalisants sont largement utilisés dans des applications où l'estimation précise de la densité est d'une importance majeure. Des recherches récentes proposent de nombreuses méthodes pour améliorer leur expressivité. Cependant, le conditionnement sur un contexte reste largement négligé dans les recherches sur les flux bijectifs. Le conditionnement conventionnel par concaténation de vecteurs est limité à quelques types de flux seulement. Plus important encore, cette approche ne peut pas supporter une configuration pratique où un ensemble de modèles spécialisés conditionnés par le contexte sont entraînés avec un modèle préentraîné généraliste fixe. Nous proposons l'approche ContextFlow++ pour surmonter ces limitations en utilisant un conditionnement additif avec une découplage explicite des connaissances généralistes et spécialisées. De plus, nous prenons en charge les contextes discrets grâce à l'architecture mixte proposée avec des encodeurs de contexte. En particulier, notre encodeur de contexte pour les variables discrètes est un flux surjectif à partir duquel les variables continues conditionnées par le contexte sont échantillonnées. Nos expériences sur les benchmarks MNIST-R tourné, CIFAR-10C corrompu, la maintenance prédictive d'ATM dans le monde réel et la détection non supervisée d'anomalies SMAP montrent que le ContextFlow++ proposé offre une formation stable plus rapide et atteint des métriques de performance supérieures. Notre code est disponible au public sur https://github.com/gudovskiy/contextflow.Note : - "Surjective flow" a été traduit par "flux surjectif".- "Mixed-variable architecture" a été traduit par "architecture mixte".- Les noms propres comme MNIST-R, CIFAR-10C, ATM et SMAP ont été conservés tels quels car ils sont généralement reconnus dans le domaine scientifique et technologique.