Les GNN sont-ils un contrepoids ? Repenser les GNN pour la réponse aux questions

La question-réponse (QA) constitue un domaine de recherche depuis longtemps présent dans les champs de l’intelligence artificielle et du traitement automatique du langage, avec de nombreuses études visant à doter les systèmes de QA de capacités de raisonnement proches de celles des humains. Pour approcher le processus de raisonnement humain complexe, les systèmes de QA de pointe exploitent couramment des modèles linguistiques pré-entraînés (LMs) afin d’accéder aux connaissances encodées dans ces modèles, combinées à des modules soigneusement conçus basés sur les réseaux de neurones graphiques (GNNs) pour effectuer du raisonnement sur des graphes de connaissances (KGs). Toutefois, de nombreux problèmes demeurent ouverts concernant la fonctionnalité de raisonnement de ces modules basés sur les GNNs. Ces modules peuvent-ils réellement mener à bien un processus de raisonnement complexe ? Sont-ils sous-ou sur-compliqués pour la tâche de QA ? Afin d’ouvrir la boîte noire des GNNs et d’investiguer ces questions, nous analysons en détail les modules GNN de pointe dédiés à la QA et évaluons leur capacité de raisonnement. Nous constatons qu’un simple compteur basé sur un réseau de neurones graphiques peut surpasser tous les modules GNN existants sur deux jeux de données standard de QA, CommonsenseQA et OpenBookQA, qui reposent fortement sur un raisonnement fondé sur les connaissances. Nos résultats révèlent que les modules GNN actuels, sensibles aux connaissances, ne réalisent peut-être que des raisonnements élémentaires, tels que le comptage. Il reste un problème ouvert difficile à résoudre de concevoir des modules de raisonnement complets pour les systèmes de QA alimentés par des connaissances.