Divergence contrastive du discriminateur : Modélisation générative semi-amortie par l'exploration de l'énergie du discriminateur

Les réseaux antagonistes génératifs (GANs) ont montré un grand potentiel dans la modélisation de données à haute dimension. L'objectif d'apprentissage des GANs consiste généralement à minimiser une mesure de divergence, telle que la divergence $f$-divergence (dans le cadre des $f$-GANs) ou la métrique d'intégrale de probabilité (dans le cadre des Wasserstein GANs). En utilisant la divergence $f$ comme fonction objectif, le discriminateur est essentiellement chargé d'estimer le rapport de densité, et cette estimation s'avère utile pour améliorer ultérieurement la qualité des échantillons générés. Toutefois, l'exploitation de l'information contenue dans le discriminateur des Wasserstein GANs (WGAN) reste moins explorée. Dans cet article, nous introduisons une nouvelle méthode appelée Discriminator Contrastive Divergence, qui s'appuie naturellement sur les propriétés du discriminateur des WGAN ainsi que sur la relation entre les WGAN et les modèles à énergie. Contrairement aux GANs classiques, où le générateur est directement utilisé pour produire de nouveaux échantillons, notre approche propose une procédure de génération semi-amortie, dans laquelle les échantillons sont générés à partir de l'état initial fourni par la sortie du générateur, suivi de plusieurs étapes de dynamique de Langevin basées sur le gradient du discriminateur. Nous démontrons les avantages d'une amélioration significative de la qualité de génération, tant sur des données synthétiques que sur plusieurs benchmarks d'image réelle.