HyperAIHyperAI
il y a 17 jours

Transformation affine récurrente pour la synthèse d’images à partir de texte

Senmao Ye, Fei Liu, Minkui Tan
Transformation affine récurrente pour la synthèse d’images à partir de texte
Résumé

La synthèse d’images à partir de texte vise à générer des images naturelles conditionnées par des descriptions textuelles. La principale difficulté de cette tâche réside dans la fusion efficace des informations textuelles dans le processus de synthèse d’images. Les méthodes existantes adaptent généralement l’intégration de l’information textuelle pertinente dans le processus de synthèse à l’aide de blocs de fusion isolés (par exemple, Normalisation conditionnelle par lot et Normalisation par instance). Toutefois, ces blocs de fusion isolés entrent souvent en conflit entre eux et augmentent la complexité de l’entraînement (voir la première page de l’annexe). Pour résoudre ces problèmes, nous proposons une Transformation affine récurrente (RAT, Recurrent Affine Transformation) pour les réseaux génératifs adversariels, qui relie tous les blocs de fusion à l’aide d’un réseau de neurones récurrents afin de modéliser leurs dépendances à long terme. Par ailleurs, afin d’améliorer la cohérence sémantique entre les textes et les images synthétisées, nous intégrons un modèle d’attention spatiale dans le discriminateur. Ce dernier, en étant conscient des régions d’image correspondant aux descriptions textuelles, supervise le générateur pour qu’il produise des contenus d’image plus pertinents. Des expériences étendues sur les jeux de données CUB, Oxford-102 et COCO démontrent l’avantage du modèle proposé par rapport aux méthodes de pointe \footnote{https://github.com/senmaoy/Recurrent-Affine-Transformation-for-Text-to-image-Synthesis.git}.