HyperAIHyperAI
il y a 13 jours

Complétion de graphes de connaissances et réponse aux questions par séquence à séquence

Apoorv Saxena, Adrian Kochsiek, Rainer Gemulla
Complétion de graphes de connaissances et réponse aux questions par séquence à séquence
Résumé

Les modèles d’embedding de graphe de connaissance (KGE) représentent chaque entité et chaque relation d’un graphe de connaissance (KG) par des vecteurs d’embedding à faible dimension. Ces méthodes ont récemment été appliquées à la prédiction de liens dans les graphes de connaissance (KG link prediction) et à la réponse à des questions sur des graphes incomplets (KGQA). Les KGE génèrent habituellement un embedding pour chaque entité du graphe, ce qui entraîne des tailles de modèle importantes sur des graphes du monde réel comptant des millions d’entités. Pour les tâches en aval, ces représentations atomiques d’entités doivent souvent être intégrées dans une chaîne de traitement multi-étapes, ce qui limite leur utilité. Nous montrons qu’un modèle Transformer encoder-décoder off-the-shelf peut servir de modèle KGE évolutif et polyvalent, atteignant des résultats de pointe pour la prédiction de liens dans les KG et la réponse à des questions sur des KG incomplets. Nous y parvenons en reformulant la tâche de prédiction de liens comme une tâche de séquence à séquence, en remplaçant l’approche classique de notation de triplets utilisée par les méthodes KGE précédentes par une décodage auto-régressif. Cette approche simple mais puissante réduit la taille du modèle jusqu’à 98 % par rapport aux modèles KGE conventionnels, tout en maintenant un temps de déduction acceptable. Après une phase de fine-tuning sur la tâche de KGQA sur des graphes incomplets, notre méthode surpasse les modèles de référence sur plusieurs jeux de données à grande échelle, sans nécessiter de réglage intensif des hyperparamètres.