Réseaux antagonistes génératifs guidés par partition

Malgré le succès des réseaux adversaires génératifs (GANs), leur entraînement est sujet à plusieurs problèmes bien connus, notamment le phénomène de « mode collapse » et les difficultés rencontrées lors de l’apprentissage de distributions complexes non connectées. Dans cet article, nous décomposons la tâche difficile d’apprentissage de distributions hautement dimensionnelles complexes, capables de représenter une grande diversité d’échantillons de données, en sous-tâches plus simples. Notre approche repose sur la conception d’un partitionneur qui divise l’espace en régions plus petites, chacune présentant une distribution plus simple, et l’entraînement d’un générateur distinct pour chaque partition. Cette procédure s’effectue de manière non supervisée, sans nécessiter d’étiquettes.Nous formulons deux critères souhaités pour le partitionneur spatial, qui facilitent l’entraînement de notre mélange de générateurs : 1) produire des partitions connexes, et 2) fournir un proxy de distance entre les partitions et les échantillons de données, ainsi qu’une direction permettant de réduire cette distance. Ces critères sont conçus pour éviter la génération d’échantillons provenant de régions où la densité de données n’existe pas, tout en facilitant l’entraînement en offrant aux générateurs une direction supplémentaire. Nous établissons des contraintes théoriques que doit satisfaire un partitionneur spatial pour répondre à ces critères. Guidés par notre analyse théorique, nous concevons une architecture neuronale efficace pour le partitionneur, dont les propriétés sont empiriquement garanties. Les résultats expérimentaux sur diverses benchmarks standard montrent que le modèle non supervisé proposé surpasser plusieurs méthodes récentes.