Modèles génératifs de Wasserstein tronqué

Dans le domaine du modèle génératif, la distance de Wasserstein (WD) est apparue comme une métrique utile pour mesurer l'écart entre les distributions de données générées et réelles. Malheureusement, il est difficile d'approximer la WD de distributions de haute dimension. En revanche, la distance de Wasserstein tranchée (SWD) décompose les distributions de haute dimension en plusieurs distributions marginales unidimensionnelles, ce qui facilite leur approximation.Dans cet article, nous introduisons de nouvelles approximations de la SWD primale et duale. Au lieu d'utiliser un grand nombre de projections aléatoires, comme c'est le cas avec les méthodes d'approximation conventionnelles de la SWD, nous proposons d'approximer les SWDs avec un petit nombre de projections orthogonales paramétriques dans une approche d'apprentissage profond bout à bout. Comme applications concrètes de nos approximations de SWD, nous concevons deux types de blocs différentiables SWD pour équiper des cadres génératifs modernes tels que les Auto-Encodeurs (AE) et les Réseaux Génératifs Adversariaux (GAN).Dans les expériences, nous montrons non seulement la supériorité des modèles génératifs proposés sur des benchmarks standard de synthèse d'images, mais aussi leurs performances exceptionnelles dans la génération d'images et de vidéos à haute résolution en mode non supervisé.