La diffusion améliore l'apprentissage sur graphe

La convolution de graphe constitue le cœur de la plupart des réseaux neuronaux sur graphe (GNN) et est généralement approximée par un échange de messages entre voisins directs (à une seule étape). Dans ce travail, nous éliminons la contrainte d'utiliser uniquement les voisins directs en introduisant une convolution de graphe puissante mais localement spatiale : la convolution par diffusion de graphe (GDC). La GDC exploite la diffusion généralisée de graphe, dont des exemples sont le noyau de chaleur et le PageRank personnalisé. Elle atténue le problème des arêtes bruitées et souvent arbitrairement définies présentes dans les graphes réels. Nous montrons que la GDC est étroitement liée aux modèles basés sur le spectre, et combine ainsi les avantages des méthodes spatiales (échanges de messages) et des méthodes spectrales. Nous démontrons que remplacer l'échange de messages par la convolution par diffusion de graphe conduit de manière cohérente à des améliorations significatives des performances sur une large gamme de modèles, tant pour des tâches supervisées que non supervisées, et sur diverses bases de données. En outre, la GDC n'est pas limitée aux GNN : elle peut être facilement combinée à tout modèle ou algorithme basé sur les graphes (par exemple, le regroupement spectral) sans nécessiter de modification de ces derniers ni d'impact sur leur complexité computationnelle. Notre implémentation est disponible en ligne.