HyperAIHyperAI
il y a 17 jours

Évaluation de l’impact du contexte des graphes de connaissances sur les modèles de désambiguïsation d’entités

Isaiah Onando Mulang&#39, , Kuldeep Singh, Chaitali Prabhu, Abhishek Nadgeri, Johannes Hoffart, Jens Lehmann
Évaluation de l’impact du contexte des graphes de connaissances sur les modèles de désambiguïsation d’entités
Résumé

Les modèles préentraînés basés sur l’architecture Transformer se sont imposés comme des approches de pointe, capables d’apprendre des informations contextuelles à partir de textes afin d’améliorer les performances de nombreuses tâches de traitement du langage naturel (NLP). Bien que puissants, ces modèles nécessitent encore des connaissances spécialisées dans certains contextes. Dans cet article, nous soutenons que le contexte extrait d’un graphe de connaissances (dans notre cas : Wikidata) fournit des signaux suffisants pour guider les modèles préentraînés Transformer et améliorer leur performance dans la désambiguïsation d’entités nommées (NED) sur le graphe de connaissances Wikidata. Nous formulons également l’hypothèse que le contexte issu du graphe de connaissances que nous proposons peut être standardisé pour Wikipedia, et nous évaluons l’impact de ce contexte sur un modèle d’état de l’art pour la NED sur la base de connaissances Wikipedia. Nos résultats empiriques confirment que le contexte de graphe de connaissances proposé est généralisable (à Wikipedia), et que l’intégration de ce contexte dans les architectures Transformer permet d’obtenir des performances significativement supérieures aux méthodes de référence existantes, y compris aux modèles Transformer de base.

Évaluation de l’impact du contexte des graphes de connaissances sur les modèles de désambiguïsation d’entités | Articles de recherche récents | HyperAI