Apprentissage de représentation sur les graphes avec des réseaux à connaissances sautées

Les approches récentes d'apprentissage profond pour l'apprentissage de représentations sur les graphes suivent une procédure d'agrégation de voisinage. Nous analysons certaines propriétés importantes de ces modèles et proposons une stratégie pour les surmonter. En particulier, la portée des nœuds « voisins » dont la représentation d'un nœud tire ses informations dépend fortement de la structure du graphe, de manière analogue à la propagation d'une marche aléatoire. Pour s'adapter aux propriétés locales des voisinages et aux tâches, nous explorons une architecture — les réseaux à connaissance sautante (jumping knowledge, JK) — qui utilise de manière flexible, pour chaque nœud, différentes portées de voisinage afin de permettre une meilleure représentation consciente de la structure. Dans plusieurs expériences menées sur des réseaux sociaux, bioinformatiques et de citations, nous démontrons que notre modèle atteint des performances d'état de l'art. De plus, en combinant le cadre JK avec des modèles tels que les Réseaux de Convolution Graphique (Graph Convolutional Networks), GraphSAGE et les Réseaux d'Attention Graphique (Graph Attention Networks), nous constatons une amélioration constante des performances de ces modèles.