CLR-GAN : Amélioration de la stabilité et de la qualité des GAN grâce à une représentation latente cohérente et à une reconstruction
Les réseaux antagonistes génératifs (GANs) ont suscité un intérêt considérable en raison de leur capacité remarquable à générer des images. Toutefois, l'entraînement d'un GAN est complexe, car le jeu entre le générateur (G) et le discriminateur (D) est inéquitable. Pour rendre cette compétition plus équitable, nous proposons une nouvelle perspective d'entraînement des GANs, nommée CLR-GAN (Consistent Latent Representation and Reconstruction). Dans ce cadre, nous considérons G et D comme des processus inverses : le discriminateur a une tâche supplémentaire de reconstruction du code latente prédéfini, tandis que le générateur doit également reconstruire l’entrée réelle, permettant ainsi d’établir une relation entre l’espace latent de G et les sorties de D. À partir de cette contrainte a priori, nous pouvons placer G et D sur un pied d’égalité pendant l’entraînement grâce à un nouveau critère. Les résultats expérimentaux sur diverses bases de données et architectures démontrent que notre approche rend les GANs plus stables et permet de générer des images de meilleure qualité (amélioration de 31,22 % du FID sur CIFAR10 et de 39,5 % sur AFHQ-Cat, respectivement). Nous espérons que cette nouvelle perspective incitera les chercheurs à explorer des façons différentes de concevoir l’entraînement des GANs, au-delà de la vision classique d’un jeu à deux joueurs. Le code est disponible publiquement à l’adresse suivante : https://github.com/Petecheco/CLR-GAN.