HyperAIHyperAI
il y a 16 jours

GETT-QA : Transformer T2T basé sur l’embedding de graphe pour la réponse aux questions sur les graphes de connaissance

Debayan Banerjee, Pranav Ajit Nair, Ricardo Usbeck, Chris Biemann
GETT-QA : Transformer T2T basé sur l’embedding de graphe pour la réponse aux questions sur les graphes de connaissance
Résumé

Dans ce travail, nous présentons un système de réponse aux questions sur les graphes de connaissances (KGQA) entièrement end-to-end nommé GETT-QA. GETT-QA utilise T5, un modèle pré-entraîné populaire pour les tâches textuelles à texte. Le modèle prend une question exprimée en langage naturel en entrée et génère une forme simplifiée de la requête SPARQL correspondante. Dans cette forme simplifiée, le modèle ne produit pas directement d'identifiants d'entités ou de relations, mais plutôt les étiquettes correspondantes d'entités et de relations. Ces étiquettes sont ensuite liées aux identifiants d'entités et de relations du graphe de connaissances (KG) dans une étape ultérieure. Pour améliorer davantage les performances, nous instructons le modèle à produire une version tronquée de l'embedding du KG pour chaque entité. Cette version tronquée de l'embedding du KG permet une recherche plus fine, utile à des fins de désambiguïsation. Nous constatons que T5 est capable d'apprendre ces embeddings tronqués du KG sans aucune modification de la fonction de perte, ce qui améliore significativement les performances du système KGQA. En conséquence, nous rapportons des résultats solides sur les jeux de données LC-QuAD 2.0 et SimpleQuestions-Wikidata pour la tâche de KGQA end-to-end sur Wikidata.