Diffusion-GAN : Formation de GANs avec la diffusion

Les réseaux antagonistes génératifs (GAN) sont difficiles à entraîner de manière stable, et une solution prometteuse consistant à injecter du bruit d’instance dans l’entrée du discriminateur s’est révélée peu efficace en pratique. Dans cet article, nous proposons Diffusion-GAN, un cadre GAN novateur qui exploite une chaîne de diffusion progressive pour générer un bruit d’instance distribué selon un mélange gaussien. Diffusion-GAN se compose de trois composants : un processus de diffusion adaptatif, un discriminateur dépendant du stade de diffusion, et un générateur. À la fois les données observées et les données générées sont diffusées par le même processus de diffusion adaptatif. À chaque stade de diffusion, le rapport bruit/données varie, et le discriminateur dépendant du stade apprend à distinguer les données réelles diffusées des données générées diffusées. Le générateur apprend à partir des retours du discriminateur en rétropropageant à travers la chaîne de diffusion progressive, dont la longueur est ajustée de manière adaptative afin d’équilibrer les niveaux de bruit et de données. Nous montrons théoriquement que la stratégie du discriminateur dépendant du stade fournit une guidance cohérente et utile au générateur, lui permettant de reproduire efficacement la distribution réelle des données. Nous démontrons les avantages de Diffusion-GAN par rapport à des baselines GAN puissantes sur divers jeux de données, en mettant en évidence sa capacité à produire des images plus réalistes, avec une stabilité accrue et une meilleure efficacité en données par rapport aux GAN les plus avancés de l’état de l’art.