
メッセージパスングラフニューラルネットワーク(MPNN)は、グラフニューラルネットワーク(GNN)の代表的な形式であり、各ノードの表現は、その近傍ノードからの表現(メッセージ)を集合して再帰的に計算する方式で、星型の構造に類似した挙動を示す。MPNNは効率的かつスケーラブルである点で魅力的であるが、その表現力は1次元ワイズフェーラー=レーマン同型性テスト(1-WL)によって上限が制約されている。これに対して、従来の研究では表現力の高いモデルが提案されているが、スケーラビリティや一般化性能に犠牲を払うことが多かった。本研究は、こうした二つのアプローチの間にある新たな境界を提示するものである。我々は、任意のMPNNをより表現力豊かに高めるための汎用フレームワークを提案する。このフレームワークは、スケーラビリティへの影響を最小限に抑えつつ、実用的な性能を大幅に向上させる。その鍵となるのは、MPNNにおける局所的な集合(aggregation)を星型構造から一般の部分グラフパターン(例:k-エゴネット)へ拡張することである。本フレームワークでは、各ノードの表現が「近傍の直接的隣接ノード」(すなわち星型)のエンコーディングではなく、「周囲の誘導部分グラフ(induced subgraph)全体」のエンコーディングとして計算される。部分グラフエンコーダとしてGNN(主にスケーラビリティを考慮しMPNNを採用)を用いることで、任意のGNNをラッピングする汎用的な枠組みを構築した。本手法を「GNN-AK(GNN As Kernel)」と呼ぶ。これは、畳み込みニューラルネットワークにおけるカーネルをGNNで置き換えることで、カーネルの役割を果たす構造に類似していることに由来する。理論的には、本フレームワークが1-WLおよび2-WLよりも厳密に強力であり、3-WLと同等またはそれ以上の表現力を有することを示した。さらに、メモリ使用量を大幅に削減し、処理速度を向上させるための部分グラフサンプリング戦略も設計した。本手法は、代表的なグラフ機械学習タスクにおいて、大幅な性能向上を達成し、複数の課題で新たな最良の結果を記録した。具体的には、ZINCでは0.08のMAE、CIFAR10では74.79%、PATTERNでは86.887%の精度を達成した。