SPARKLE : Amélioration de la génération de SPARQL par l'intégration directe du graphe de connaissances lors du décodage

Les méthodes de réponse aux questions basées sur des bases de connaissances (KBQA) existantes ont traditionnellement reposé sur des approches en plusieurs étapes, impliquant des tâches telles que le lien d'entités, la récupération de sous-graphes et la génération de structures de requêtes. Cependant, les approches en plusieurs étapes dépendent de la précision des étapes précédentes, ce qui conduit à des erreurs en cascade et à une augmentation du temps d'inférence. Bien que quelques études aient exploré l'utilisation de modèles end-to-end, ceux-ci souffrent souvent d'une précision moindre et génèrent des requêtes non opérationnelles qui ne sont pas supportées par les données sous-jacentes. De plus, la plupart des approches antérieures sont limitées aux données d'entraînement statiques, potentiellement négligeant l'évolution naturelle des bases de connaissances au fil du temps. Pour relever ces défis, nous présentons un nouveau cadre end-to-end pour la transformation du langage naturel en SPARQL, appelé SPARKLE. SPARKLE utilise directement la structure de la base de connaissances lors du décodage, intégrant efficacement les connaissances dans la génération de requêtes. Notre étude révèle que se référer simplement à la base de connaissances pendant l'inférence réduit considérablement l'apparition de générations de requêtes non exécutable. SPARKLE obtient des résultats nouveaux et meilleurs que l'état actuel de l'art sur SimpleQuestions-Wiki et le meilleur score F1 sur LCQuAD 1.0 (parmi les modèles n'utilisant pas les entités dorées), tout en obtenant légèrement moins bons résultats sur le jeu de données WebQSP. Enfin, nous démontrons la vitesse d'inférence rapide de SPARKLE ainsi que sa capacité à s'adapter lorsque la base de connaissances diffère entre les phases d'entraînement et d'inférence.