Encodeurs Neuraux Structurels pour la Génération de Texte à partir d'AMR

La génération de texte à partir d'AMR est un problème récemment introduit dans la communauté de traitement du langage naturel (NLP), dont l'objectif est de générer des phrases à partir de graphes d'Abstract Meaning Representation (AMR). Les modèles séquence-à-séquence peuvent être utilisés à cette fin en convertissant les graphes AMR en chaînes de caractères. Aborder le problème en travaillant directement avec les graphes nécessite l'utilisation de modèles graphe-à-séquence qui codent le graphe AMR dans une représentation vectorielle. Cette codification a été montrée comme étant bénéfique par le passé, et contrairement à la codification séquentielle, elle nous permet de capturer explicitement les structures réentrantes dans les graphes AMR. Nous examinons l'impact des réentrances (nœuds avec plusieurs parents) sur la génération de texte à partir d'AMR en comparant les encodeurs de graphes aux encodeurs d'arbres, où les réentrances ne sont pas préservées. Nous démontrons que les améliorations dans le traitement des réentrances et des dépendances à longue portée contribuent à des scores globaux plus élevés pour les encodeurs de graphes. Notre meilleur modèle atteint un score BLEU de 24,40 sur LDC2015E86, surpassant l'état de l'art de 1,1 point, et un score BLEU de 24,54 sur LDC2017T10, surpassant l'état de l'art de 1,24 point.