HyperAIHyperAI
il y a 15 jours

Information structurale préservée pour la génération de texte à partir de graphes

Linfeng Song, Ante Wang, Jinsong Su, Yue Zhang, Kun Xu, Yubin Ge, Dong Yu
Information structurale préservée pour la génération de texte à partir de graphes
Résumé

La tâche de génération de texte à partir de graphes vise à produire des phrases qui conservent le sens des graphes d’entrée. Un défaut majeur des modèles actuellement les plus performants réside dans leur tendance à altérer voire à ignorer les informations structurelles essentielles des graphes d’entrée lors de la génération des sorties. Pour pallier ce problème, nous proposons d’utiliser des signaux d’apprentissage plus riches afin de guider notre modèle dans la préservation des informations d’entrée. Plus précisément, nous introduisons deux types de pertes d’auto-encodage, chacune se concentrant individuellement sur un aspect différent (appelé « vue ») des graphes d’entrée. Ces pertes sont ensuite rétropropagées afin d’ajuster plus finement notre modèle grâce à un apprentissage multi-tâches. Des expériences menées sur deux benchmarks pour la génération de texte à partir de graphes démontrent l’efficacité de notre approche par rapport à une méthode de référence de pointe. Notre code est disponible à l’adresse suivante : \url{http://github.com/Soistesimmer/AMR-multiview}.

Information structurale préservée pour la génération de texte à partir de graphes | Articles de recherche récents | HyperAI