DDGK : Apprentissage de représentations graphiques pour les noyaux de divergence profonde

Les réseaux de neurones peuvent-ils apprendre à comparer des graphes sans ingénierie des caractéristiques ? Dans cet article, nous montrons qu'il est possible d'apprendre des représentations pour la similarité de graphes sans connaissances du domaine ni supervision (c'est-à-dire sans ingénierie des caractéristiques ou graphes étiquetés). Nous proposons les noyaux de divergence profonde pour les graphes (Deep Divergence Graph Kernels), une méthode non supervisée pour l'apprentissage de représentations sur des graphes qui encode une notion détendue d'isomorphisme de graphe. Notre méthode se compose de trois parties. Premièrement, nous apprenons un encodeur pour chaque graphe d'ancrage afin de capturer sa structure. Deuxièmement, pour chaque paire de graphes, nous entraînons un réseau d'attention inter-graphe qui utilise les représentations nodales d'un graphe d'ancrage pour reconstruire un autre graphe. Cette approche, que nous appelons attention d'isomorphisme, capture dans quelle mesure les représentations d'un graphe peuvent encoder un autre. Nous utilisons les prédictions de l'encodeur augmenté par l'attention pour définir un score de divergence pour chaque paire de graphes. Enfin, nous construisons un espace d'embedding pour tous les graphes en utilisant ces scores de divergence entre paires.Contrairement aux travaux précédents, beaucoup desquels reposent sur 1) la supervision, 2) des connaissances spécifiques au domaine (par exemple, une dépendance aux noyaux Weisfeiler-Lehman), et 3) un alignement nodal connu, notre méthode non supervisée apprend conjointement les représentations nodales, les représentations de graphe et un alignement basé sur l'attention entre les graphes.Nos résultats expérimentaux montrent que les noyaux de divergence profonde pour les graphes peuvent apprendre un alignement non supervisé entre des graphes et que les représentations apprises atteignent des résultats compétitifs lorsqu'elles sont utilisées comme caractéristiques dans plusieurs tâches complexes de classification de graphes. De plus, nous illustrons comment l'attention apprise permet une compréhension des alignements des sous-structures à travers différents graphes.