Réseaux de Convolution Graphique Basés sur Mamba : Lutter contre le Sur-lissage par l'Espace d'État Sélectif

Les réseaux neuronaux sur graphes (GNNs) ont connu un grand succès dans diverses tâches d'apprentissage basées sur des graphes. Cependant, ils sont souvent confrontés au problème de l'over-smoothing lorsque la profondeur du modèle augmente, ce qui entraîne la convergence de toutes les représentations de nœuds vers une seule valeur et les rend indiscernables. Ce problème découle des limitations inhérentes des GNNs, qui peinent à distinguer l'importance des informations provenant de différents voisinages. Dans cet article, nous présentons MbaGCN, une nouvelle architecture de convolution sur graphe inspirée du paradigme Mamba, initialement conçu pour la modélisation de séquences. MbaGCN propose un nouveau squelette pour les GNNs, composé de trois éléments clés : la Couche d'Aggrégation des Messages, la Couche de Transition Sélective dans l'Espace d'États (Selective State Space Transition Layer), et la Couche de Prédiction de l'État des Nœuds. Ces composants fonctionnent en synergie pour aggréger adaptivement les informations du voisinage, offrant ainsi plus de flexibilité et d'évolutivité aux modèles GNN profonds. Bien que MbaGCN ne surpasse pas nécessairement toutes les méthodes existantes sur chaque jeu de données, il fournit un cadre fondamental qui démontre l'intégration efficace du paradigme Mamba dans l'apprentissage des représentations graphiques. À travers des expériences approfondies sur des jeux de données de référence, nous montrons que MbaGCN ouvre la voie à d'avenir progrès dans la recherche sur les réseaux neuronaux sur graphes.