Apprentissage d'embeddings basés sur l'attention pour la prédiction de relations dans les graphes de connaissances

La prolifération récente des graphes de connaissances (KGs), associée à des informations incomplètes ou partielles sous la forme de relations manquantes (liens) entre les entités, a stimulé de nombreuses recherches sur le complétion des bases de connaissances (également connu sous le nom de prédiction de relations). Plusieurs travaux récents suggèrent que les modèles basés sur les réseaux neuronaux convolutifs (CNN) génèrent des plongements de caractéristiques plus riches et expressifs, et donc se distinguent également dans la prédiction de relations. Cependant, nous constatons que ces plongements de KG traitent les triplets indépendamment, ce qui entraîne une incapacité à couvrir l'information complexe et cachée inhérente au voisinage local d'un triplet. À cet égard, notre article propose un nouveau plongement de caractéristiques basé sur l'attention qui capture à la fois les caractéristiques des entités et des relations dans le voisinage d'une entité donnée. De plus, nous intégrons également des clusters de relations et des relations multihop dans notre modèle. Notre étude empirique offre des perspectives sur l'efficacité de notre modèle basé sur l'attention, et nous montrons des améliorations significatives en termes de performance par rapport aux méthodes les plus avancées actuellement disponibles sur tous les jeux de données.