Benötigen wir anisotrope Graph Neural Networks?

In der Gemeinschaft der Graph Neural Networks (GNNs) gilt seit langem die Auffassung, dass anisotrope Modelle – bei denen die zwischen Knoten ausgetauschten Nachrichten sowohl von der Quelle als auch vom Zielknoten abhängen – notwendig sind, um state-of-the-art-Leistungen zu erzielen. Bislang durchgeführte Benchmarks haben gezeigt, dass solche anisotropen Modelle vergleichbare isotrope Modelle – bei denen die Nachrichten nur von der Quelle abhängen – übertrumpfen. In dieser Arbeit liefern wir empirische Hinweise, die diese gängige Auffassung in Frage stellen: Wir stellen ein isotropes GNN vor, das wir Efficient Graph Convolution (EGC) nennen, das konsistent bessere Ergebnisse erzielt als vergleichbare anisotrope Modelle, darunter die populären Architekturen GAT und PNA, indem es räumlich variierende adaptive Filter nutzt. Neben der Aufwerfung wichtiger Fragen für die GNN-Community weist unsere Arbeit erhebliche praktische Implikationen hinsichtlich Effizienz auf. EGC erreicht eine höhere Modellgenauigkeit bei geringerem Speicherverbrauch und niedrigerer Latenz sowie Eigenschaften, die eine effiziente Implementierung auf Beschleunigerarchitekturen ermöglichen, und ist gleichzeitig eine direkte Ersatzlösung für bestehende Architekturen. Als isotropes Modell benötigt EGC Speicherplatz proportional zur Anzahl der Knoten im Graphen ($\mathcal{O}(V)$); anisotrope Modelle hingegen benötigen Speicherplatz proportional zur Anzahl der Kanten ($\mathcal{O}(E)$). Wir zeigen, dass EGC bestehende Ansätze auf sechs großen und vielfältigen Benchmark-Datensätzen übertrifft, und diskutieren abschließend die zukünftigen Fragen, die unsere Arbeit für die Community aufwirft. Der Quellcode und vortrainierte Modelle für unsere Experimente sind unter https://github.com/shyam196/egc verfügbar.