Réseau de neurones graphiques basé sur un modèle avec distances d’optimal transport

Les architectures actuelles de réseaux de neurones sur graphes (GNN) reposent généralement sur deux composants essentiels : l’encodage des caractéristiques des nœuds par passage de messages, et l’agrégation via une forme spécialisée de pooling. L’information structurelle (ou topologique) est implicitement prise en compte au cours de ces deux étapes. Dans ce travail, nous proposons une nouvelle perspective, qui place les distances par rapport à un ensemble de modèles graphiques apprenables au cœur de la représentation du graphe. Cette représentation par distance est construite à l’aide d’une distance de transport optimal : la distance Fused Gromov-Wasserstein (FGW), qui encode simultanément les dissimilarités de caractéristiques et de structure en résolvant un problème de correspondance graphique douce. Nous postulons que le vecteur des distances FGW par rapport à un ensemble de graphes modèles possède un fort pouvoir discriminant, qui est ensuite alimenté dans un classifieur non linéaire pour produire les prédictions finales. L’encodage par distance peut être vu comme une nouvelle couche, pouvant tirer parti des techniques existantes de passage de messages afin de favoriser des représentations de caractéristiques sensées. De manière intéressante, dans notre approche, l’ensemble optimal de graphes modèles est également appris de manière end-to-end en différentiant à travers cette couche. Après avoir décrit le procédé d’apprentissage correspondant, nous validons empiriquement notre hypothèse sur plusieurs jeux de données synthétiques et réels pour la classification de graphes, où notre méthode est compétitive ou supérieure aux approches d’état de l’art basées sur les noyaux ou les GNN. Nous complétons nos expériences par une étude d’ablation et une analyse de sensibilité aux paramètres.