Voisin Commun Neuronal avec Complétion pour la Prédiction de Liens

Dans ce travail, nous proposons un nouveau modèle de prédiction de liens et améliorons davantage ses performances en étudiant l’incomplétude du graphe. Tout d’abord, nous introduisons MPNN-then-SF, une architecture innovante qui utilise les caractéristiques structurelles (SF) pour guider le regroupement de représentations dans les MPNN, dont l’implémentation concrète est nommée Neural Common Neighbor (NCN). NCN présente une expressivité et une scalabilité supérieures par rapport aux modèles existants, classés en deux catégories : SF-then-MPNN, qui enrichissent l’entrée des MPNN avec des caractéristiques structurelles, et SF-and-MPNN, qui décomposent séparément les caractéristiques structurelles et les MPNN. Ensuite, nous étudions l’impact de l’incomplétude du graphe — phénomène selon lequel certains liens ne sont pas observés dans le graphe d’entrée — sur les caractéristiques structurelles, telles que le nombre de voisins communs. À travers une visualisation des jeux de données, nous constatons que l’incomplétude réduit le nombre de voisins communs et provoque des décalages de distribution, affectant significativement les performances des modèles. Pour atténuer ce problème, nous proposons d’utiliser un modèle de prédiction de liens afin de compléter la structure des voisins communs. En combinant cette approche avec NCN, nous proposons Neural Common Neighbor with Completion (NCNC). Les modèles NCN et NCNC surpassent largement les dernières méthodes de référence, et NCNC dépasse même les meilleurs modèles actuels sur des benchmarks standards de prédiction de liens. Le code source est disponible à l’adresse suivante : https://github.com/GraphPKU/NeuralCommonNeighbor.