R-GCN : Le « R » pourrait signifier « aléatoire »

L'apparition du Réseau de convolution graphique relationnel (R-GCN) a marqué une étape majeure dans le domaine du Web sémantique, en tant que méthode largement citée qui généralise l'apprentissage hiérarchique de représentations end-to-end aux graphes de connaissances (KG). Les R-GCN génèrent des représentations pour les nœuds d'intérêt en agrégeant de manière itérative des transformations paramétrées et spécifiques aux relations de leurs voisins. Toutefois, dans cet article, nous soutenons que la contribution principale des R-GCN réside davantage dans leur paradigme de « passage de messages », plutôt que dans les poids appris. À cette fin, nous introduisons le « Réseau de convolution graphique relationnel aléatoire » (RR-GCN), qui laisse tous les paramètres non entraînés, et construit ainsi des embeddings de nœuds en agrégeant des représentations aléatoirement transformées provenant des voisins, c’est-à-dire sans aucun paramètre appris. Nous démontrons empiriquement que les RR-GCN peuvent rivaliser avec les R-GCN entièrement entraînés dans les tâches de classification de nœuds et de prédiction de liens.