HyperAIHyperAI
il y a 11 jours

MoCoKGC : Encodage d'entités par contraste de momentum pour la complétion des graphes de connaissances

{YuChu Qin, Yanru Zhong, Qingyang Li}
MoCoKGC : Encodage d'entités par contraste de momentum pour la complétion des graphes de connaissances
Résumé

Ces dernières années, de nombreuses études ont cherché à améliorer les capacités des modèles linguistiques préentraînés (PLMs) pour les tâches de complétion des graphes de connaissances (KGC) en intégrant des informations structurelles provenant des graphes de connaissances. Toutefois, les approches existantes n’ont pas efficacement combiné les attributs structurels des graphes de connaissances avec les descriptions textuelles des entités afin de générer des encodages d’entités robustes. Pour remédier à ce problème, ce papier propose MoCoKGC (Momentum Contrast Entity Encoding for Knowledge Graph Completion), qui intègre trois encodeurs principaux : l’encodeur entité-relation, l’encodeur entité et l’encodeur entité à momentum. L’apprentissage contrastif à momentum fournit non seulement un plus grand nombre d’échantillons négatifs, mais permet également une mise à jour progressive des encodages d’entités. En conséquence, nous réintroduisons les encodages d’entités générés dans l’encodeur afin d’intégrer les informations structurelles du graphe. En outre, MoCoKGC renforce les capacités d’inférence de l’encodeur entité-relation grâce à des prompts profonds sur les relations. Sur le critère d’évaluation standard, le rang réciproque moyen (MRR), le modèle MoCoKGC montre des performances supérieures, avec une amélioration de 7,1 % sur le jeu de données WN18RR et de 11 % sur Wikidata5M, tout en dépassant également le meilleur modèle actuel sur FB15k-237. À travers une série d’expériences, ce papier examine de manière approfondie le rôle et la contribution de chaque composant et paramètre du modèle.

MoCoKGC : Encodage d'entités par contraste de momentum pour la complétion des graphes de connaissances | Articles de recherche récents | HyperAI