Können klassische GNNs starke Baselines für graphenbasierte Aufgaben sein? Einfache Architekturen erreichen Exzellenz

Nachrichtenübertragungs-Graph-Neuronale Netze (GNNs) werden häufig wegen ihrer begrenzten Ausdruckskraft, Problemen wie Überglättung (over-smoothing) und Überquetschung (over-squashing) sowie Schwierigkeiten bei der Erfassung langreichweitiger Abhängigkeiten kritisiert. Im Gegensatz dazu gelten Graph-Transformer (GTs) als überlegen, da sie globale Aufmerksamkeitsmechanismen einsetzen, die diese Herausforderungen potenziell abmildern. In der Literatur wird häufig darauf hingewiesen, dass GTs GNNs in graphenbasierten Aufgaben, insbesondere bei der Graphklassifikation und -regression auf kleinen molekularen Graphen, überlegen sind. In dieser Studie untersuchen wir das bisher ungenutzte Potenzial von GNNs durch einen verbesserten Ansatz, GNN+, der sechs weit verbreitete Techniken integriert: Kantenmerkmalsintegration, Normalisierung, Dropout, Residual-Verbindungen, Feed-Forward-Netzwerke und Positionscodierung, um graphenbasierte Aufgaben effektiv zu bewältigen. Wir führen eine systematische Neubewertung dreier klassischer GNNs (GCN, GIN und GatedGCN) durch, die durch das GNN+-Framework verbessert wurden, anhand von 14 bekannten graphenbasierten Datensätzen. Unsere Ergebnisse zeigen, dass diese klassischen GNNs im Gegensatz zu vorherrschenden Annahmen konsistent die Leistung von GTs erreichen oder übertreffen, wobei sie in allen Datensätzen unter den Top-Drei rangieren und in acht Fällen sogar den ersten Platz belegen. Zudem zeichnen sie sich durch eine höhere Effizienz aus und laufen auf vielen Datensätzen mehrere Male schneller als GTs. Dies unterstreicht das Potenzial einfacher GNN-Architekturen und stellt die Annahme in Frage, dass komplexe Mechanismen in GTs für eine überlegene Leistung auf graphenbasierten Aufgaben unerlässlich sind. Der Quellcode ist unter https://github.com/LUOyk1999/GNNPlus verfügbar.