Mamba-basierte Graphenkonvolutionalnetze: Über-smoothing durch selektiven Zustandsraum angehen

Graph Neural Networks (GNNs) haben in verschiedenen graphbasierten Lernaufgaben großen Erfolg gezeigt. Allerdings stellen sie oft das Problem des Überglättens (over-smoothing) dar, das mit zunehmender Modelltiefe auftritt und dazu führt, dass alle Knotendarstellungen zu einem einzigen Wert konvergieren und nicht mehr voneinander unterscheidbar sind. Dieses Problem resultiert aus den inhärenten Einschränkungen von GNNs, die Schwierigkeiten haben, die Bedeutung von Informationen aus unterschiedlichen Nachbarschaften zu differenzieren. In dieser Arbeit stellen wir MbaGCN vor, eine neuartige Graphkonvolutionale Architektur, die sich vom Mamba-Paradigma inspirieren lässt – ursprünglich für Sequenzmodellierung entwickelt. MbaGCN präsentiert einen neuen Grundriss für GNNs, der aus drei zentralen Komponenten besteht: der Nachrichtenaggregationschicht (Message Aggregation Layer), der selektiven Zustandsraumübergangsschicht (Selective State Space Transition Layer) und der Knotenzustandsvorhersageschicht (Node State Prediction Layer). Diese Komponenten arbeiten zusammen, um Nachbarschaftsinformationen anpassungsfähig zu aggregieren und so größere Flexibilität und Skalierbarkeit für tiefe GNN-Modelle zu bieten. Obwohl MbaGCN bei jedem Datensatz nicht immer allen existierenden Methoden überlegen ist, bietet es ein grundlegendes Framework, das die effektive Integration des Mamba-Paradigmas in das Lernen von Graphrepräsentationen demonstriert. Durch umfangreiche Experimente auf Benchmark-Datensätzen zeigen wir, dass MbaGCN den Weg für zukünftige Fortschritte in der Forschung zu Graph Neural Networks ebnen wird.