Vers une meilleure apprentissage des représentations de graphes grâce à la décomposition et au filtrage paramétrés

Proposer une matrice efficace et flexible pour représenter un graphe constitue un défi fondamental qui a été exploré sous plusieurs angles, par exemple par le biais du filtrage dans les transformations de Fourier sur graphe. Dans ce travail, nous proposons un cadre général et novateur qui unifie de nombreux modèles existants de réseaux de neurones sur graphe (GNN) du point de vue de la décomposition paramétrée et du filtrage, et montrons comment ce cadre améliore la flexibilité des GNN tout en atténuant les problèmes de lissage et d'amplification observés dans les modèles existants. Fondamentalement, nous démontrons que les convolutions spectrales sur graphe, largement étudiées et basées sur des filtres polynomiaux apprenables, représentent une variante contrainte de cette formulation, et la relaxation de ces contraintes permet à notre modèle d'exprimer simultanément la décomposition et le filtrage souhaités. À partir de ce cadre généralisé, nous avons développé des modèles simples à implémenter, tout en obtenant des améliorations significatives et une efficacité computationnelle accrue sur diverses tâches d'apprentissage sur graphe. Le code est disponible à l'adresse suivante : https://github.com/qslim/PDF.