Information structurale préservée pour la génération de texte à partir de graphes

La tâche de génération de texte à partir de graphes vise à produire des phrases qui conservent le sens des graphes d’entrée. Un défaut majeur des modèles actuellement les plus performants réside dans leur tendance à altérer voire à ignorer les informations structurelles essentielles des graphes d’entrée lors de la génération des sorties. Pour pallier ce problème, nous proposons d’utiliser des signaux d’apprentissage plus riches afin de guider notre modèle dans la préservation des informations d’entrée. Plus précisément, nous introduisons deux types de pertes d’auto-encodage, chacune se concentrant individuellement sur un aspect différent (appelé « vue ») des graphes d’entrée. Ces pertes sont ensuite rétropropagées afin d’ajuster plus finement notre modèle grâce à un apprentissage multi-tâches. Des expériences menées sur deux benchmarks pour la génération de texte à partir de graphes démontrent l’efficacité de notre approche par rapport à une méthode de référence de pointe. Notre code est disponible à l’adresse suivante : \url{http://github.com/Soistesimmer/AMR-multiview}.