我々は異方性グラフニューラルネットワークを必要としているだろうか?

グラフニューラルネットワーク(GNN)分野における一般的な認識は、ノード間で送信されるメッセージが送信元ノードと受信元ノードの両方の関数として定義される「異方性モデル(anisotropic models)」が必要であり、最新の性能を達成するにはこれが必要であるというものである。これまでのベンチマーク結果は、このような異方性モデルが、メッセージが送信元ノードのみに依存する「等方性モデル(isotropic models)」と比較して優れた性能を発揮することを示している。本研究では、この既存の見解に挑戦する実証的証拠を提示する。我々は、空間的に変化する適応型フィルタを用いることで、従来の異方性モデル(たとえば人気のあるGATやPNAアーキテクチャ)を常に上回る性能を発揮する等方性GNN「効率的グラフ畳み込み(Efficient Graph Convolution: EGC)」を提案する。本研究はGNNコミュニティに重要な問いを提起するだけでなく、実用的な観点からも大きな意義を持つ。EGCは、より高いモデル精度を実現しつつ、メモリ消費量と待機時間(latency)を低減しており、さらにアクセラレータ実装に適した特性を備えている。また、既存アーキテクチャへの即時置き換え(drop-in replacement)が可能な点も特徴である。等方性モデルであるEGCは、グラフ内の頂点数に比例するメモリ($\mathcal{O}(V)$)で済むのに対し、異方性モデルは辺数に比例するメモリ($\mathcal{O}(E)$)を必要とする。我々は、6つの大規模かつ多様なベンチマークデータセットにおいて、EGCが既存手法を上回ることを実証し、今後のGNNコミュニティにおける課題について考察を述べる。本研究の実験用コードおよび事前学習済みモデルは、https://github.com/shyam196/egc にて公開されている。