Clenshaw-Graph-Neuronale Netze

Graph Convolutional Networks (GCNs), die ein Nachrichtenübertragungsparadigma mit gestapelten Faltungsschichten verwenden, sind grundlegende Methoden zur Lernrepräsentation von Graphen. Neuere GCN-Modelle nutzen verschiedene Residualverbindungstechniken, um Probleme wie Überglättung und Gradientenverschwinden zu mildern. Bestehende Residualverbindungstechniken versagen jedoch darin, die zugrunde liegende Graphstruktur im Graphenspektralbereich ausreichend zu nutzen, was für zufriedenstellende Ergebnisse auf heterophilen Graphen entscheidend ist. In dieser Arbeit stellen wir ClenshawGCN vor, ein GNN-Modell, das den Clenshaw-Summationsalgorithmus verwendet, um die Ausdrucksstärke des GCN-Modells zu erhöhen. ClenshawGCN ergänzt das Standard-GCN-Modell um zwei einfache Residualmodule: die adaptive anfängliche Residualverbindung und die negative zweite Ordnungsresidualverbindung. Wir zeigen, dass durch die Hinzufügung dieser beiden Residualmodule ClenshawGCN implizit einen Polynomfilter unter der Chebyshev-Basis simuliert, wodurch es mindestens ebenso viel Ausdrucksstärke wie polynomielle spektrale GNNs besitzt. Darüber hinaus führen wir umfangreiche Experimente durch, um die Überlegenheit unseres Modells gegenüber räumlichen und spektralen GNN-Modellen zu demonstrieren.