Exploration de la représentation de passages structurés en graphe pour la compréhension de lecture multi-étapes avec des réseaux neuronaux graphiques

La compréhension de lecture multi-étapes se concentre sur un type particulier de question factuelle, où un système doit intégrer correctement plusieurs éléments de preuve pour répondre correctement à une question. Les travaux précédents approchent la preuve globale par des informations de coréférence locales, en codant les chaînes de coréférence avec des couches GRU au style DAG au sein d'un lecteur à attention gérée. Cependant, la coréférence est limitée dans sa capacité à fournir des informations pour une inférence riche. Nous introduisons une nouvelle méthode permettant une meilleure connexion entre les preuves globales, formant ainsi des graphes plus complexes comparés aux DAG (Directed Acyclic Graphs). Pour effectuer l'intégration des preuves sur nos graphes, nous examinons deux réseaux neuronaux récents basés sur les graphes, à savoir le réseau neuronal convolutif de graphe (GCN) et le réseau neuronal récurrent de graphe (GRN). Les expériences menées sur deux jeux de données standards montrent que des informations globales plus riches conduisent à de meilleures réponses. Notre méthode surpasse tous les résultats publiés sur ces jeux de données.