RelGAN : Réseaux antagonistes génératifs relationnels pour la génération de texte

Les réseaux adverses génératifs (GANs) ont connu un grand succès dans la génération d’images réalistes. Toutefois, la génération de texte reste une tâche difficile pour les architectures GAN modernes. Dans ce travail, nous proposons RelGAN, une nouvelle architecture GAN dédiée à la génération de texte, composée de trois composants principaux : un générateur basé sur une mémoire relationnelle pour modéliser les dépendances à longue portée, la relaxation Gumbel-Softmax pour entraîner les GANs sur des données discrètes, et plusieurs représentations embarquées dans le discriminateur afin d’offrir un signal plus informatif pour les mises à jour du générateur. Nos expérimentations montrent que RelGAN surpasse les modèles actuels de l’état de l’art en termes de qualité et de diversité des échantillons générés. Des études d’ablation révèlent également que chaque composant de RelGAN contribue de manière critique à ses améliorations de performance. En outre, un avantage clé de notre méthode, qui la distingue des autres GANs, réside dans sa capacité à contrôler le compromis entre la qualité des échantillons et leur diversité à l’aide d’un seul paramètre ajustable. Enfin, RelGAN est la première architecture à permettre le succès des GANs utilisant la relaxation Gumbel-Softmax dans la génération de textes réalistes.