Klassische GNNs sind starke Baselines: Eine Neubewertung von GNNs für die Knotenklassifikation

Graph Transformers (GTs) sind in letzter Zeit als beliebte Alternativen zu herkömmlichen Nachrichtenübertragungs-Graph Neural Networks (GNNs) hervorgetreten, da sie eine theoretisch überlegene Ausdruckskraft aufweisen und in Standardbenchmarks für Knotenklassifikation beeindruckende Leistungen erzielt haben, die GNNs oft deutlich übertrafen. In diesem Artikel führen wir eine gründliche empirische Analyse durch, um die Leistung von drei klassischen GNN-Modellen (GCN, GAT und GraphSAGE) im Vergleich zu GTs erneut zu bewerten. Unsere Ergebnisse deuten darauf hin, dass die bisher berichtete Überlegenheit von GTs möglicherweise auf suboptimalen Hyperparameterkonfigurationen bei GNNs beruht. Erstaunlicherweise erreichen diese klassischen GNN-Modelle bei geringfügiger Hyperparameteranpassung state-of-the-art-Leistungen und erreichen oder übertreffen die Leistung neuerer GTs auf 17 von insgesamt 18 unterschiedlichen Datensätzen. Zudem führen wir detaillierte Ablationsstudien durch, um den Einfluss verschiedener GNN-Konfigurationen – wie Normalisierung, Dropout, Residual-Verbindungen und Netzwerk-Tiefe – auf die Leistung bei der Knotenklassifikation zu untersuchen. Unser Studienziel ist es, einen höheren Maßstab an empirischer Sorgfalt in der Forschung auf dem Gebiet des graphenbasierten maschinellen Lernens zu fördern und präzisere Vergleiche sowie Bewertungen der Modellfähigkeiten zu ermöglichen.