PaddingFlow : Amélioration des flows de normalisation grâce au bruit dans les dimensions d'empaquetage

Le flow normalisé est une approche de modélisation générative permettant un échantillonnage efficace. Toutefois, les modèles basés sur les flows rencontrent deux problèmes majeurs : 1) lorsque la distribution cible est une variété (manifold), l'inadéquation entre les dimensions de la distribution latente cible et celle de la distribution des données peut entraîner une mauvaise performance des modèles basés sur les flows ; 2) les données discrètes peuvent faire que les modèles basés sur les flows s'effondrent en un mélange dégénéré de masses ponctuelles. Pour contourner ces deux limitations, nous proposons PaddingFlow, une nouvelle méthode de déquantification qui améliore les flows normalisés en introduisant un bruit de dimension padding. Pour implémenter PaddingFlow, il suffit de modifier la dimension des flows normalisés, ce qui rend notre méthode facile à mettre en œuvre et peu coûteuse en termes de calcul. De plus, le bruit de dimension padding n’est ajouté qu’à la dimension padding, ce qui signifie que PaddingFlow permet la déquantification sans modifier la distribution des données. En revanche, la mise en œuvre des méthodes de déquantification existantes nécessite de modifier la distribution des données, ce qui peut dégrader les performances. Nous validons notre méthode sur les principales benchmarks d’estimation de densité non conditionnelle, incluant cinq jeux de données tabulaires et quatre jeux de données d’images pour des modèles d’Autoencodeurs Variationnels (VAE), ainsi que sur des expériences d’Inverse Kinematics (IK), qui correspondent à une estimation de densité conditionnelle. Les résultats montrent que PaddingFlow obtient de meilleurs résultats dans tous les expériences de cet article, ce qui démontre sa grande adaptabilité à diverses tâches. Le code est disponible à l’adresse suivante : https://github.com/AdamQLMeng/PaddingFlow.