Intégration de graphes de connaissances attentifs aux propriétés positionnelles et centrées
Les embeddings des graphes de connaissances (KGE) sont récemment au cœur de nombreuses études en intelligence artificielle en raison de leur capacité à résoudre diverses tâches ultérieures, notamment la prédiction de liens et la classification de nœuds. Toutefois, la plupart des modèles d’embeddings de graphes de connaissances codent uniquement la structure locale du graphe associée à une entité, c’est-à-dire les informations provenant de son voisinage immédiat (1-hop). La prise en compte à la fois de la structure locale et des caractéristiques globales des entités est cruciale pour améliorer les performances des tâches de prédiction sur les graphes de connaissances. Ce travail propose une nouvelle méthode KGE appelée Graph Feature Attentive Neural Network (GFA-NN), qui calcule des caractéristiques graphiques des entités. En conséquence, les embeddings résultants sont sensibles à deux types de caractéristiques réseau globales. Premièrement, la centralité relative des nœuds, fondée sur l’observation que certaines entités sont plus « éminentes » que d’autres. Deuxièmement, la position relative des entités au sein du graphe. Le modèle GFA-NN calcule plusieurs valeurs de centralité pour chaque entité, génère un ensemble aléatoire de nœuds de référence, puis détermine le plus court chemin entre une entité donnée et chaque nœud de cet ensemble. Ces informations sont ensuite apprises via une optimisation des objectifs définis pour chacune de ces caractéristiques. Nous évaluons GFA-NN sur plusieurs benchmarks de prédiction de liens, dans les cadres inductifs et transductifs, et montrons que GFA-NN atteint des performances équivalentes ou supérieures aux solutions d’état de l’art en KGE.