
グラフニューラルネットワーク(GNN)は、グラフ機械学習において広く用いられ、広範なノード分類タスクにおいて優れた成果を示している。しかし、データ依存性に起因するスケーラビリティの課題から、産業界における実用的導入はそれほど進んでいない。具体的には、GNNの推論はターゲットノードから複数ホップ離れた隣接ノードに依存しており、その取得が遅延制約のあるアプリケーションにとって負担となる。従来の推論高速化手法としてのプリューニングや量子化は、乗算-加算(MAC)演算を削減することでGNNの高速化を図れるが、データ依存性という根本的な問題が解決されていないため、その性能向上は限界がある。一方、マルチレイヤーパーセプトロン(MLP)はグラフ依存性を持たず、GNNよりもはるかに高速に推論が可能であるが、一般にはノード分類においてGNNほど精度が高くない。こうしたGNNとMLPの相補的な強みと弱みに着目し、本研究では知識蒸留(Knowledge Distillation, KD)を用いて両者を統合する。本研究の結果、GNNによる知識蒸留により、MLPの性能は大幅に向上することが示された。このように知識蒸留によって得られたMLPを、推論時にグラフ依存性を持たないため「グラフレスニューラルネットワーク(Graph-less Neural Networks, GLNN)」と呼ぶ。実験結果から、競争力のある精度を達成しつつ、GLNNはGNNよりも146倍~273倍高速に、他の高速化手法よりも14倍~27倍高速に推論が可能であることが明らかになった。7つのデータセットを対象とした生産環境下での推論(従来的推論とインダクティブ推論を含む)において、GLNNの精度は単独のMLPよりも平均12.36%向上し、7つのうち6つでGNNと同等の精度を達成した。包括的な分析により、GLNNがなぜGNNと競合可能な精度を実現できるのか、またどのような条件下でその効果が顕著になるかが明らかとなり、GLNNは遅延制約のあるアプリケーションにおいて実用的かつ手軽な選択肢であることが示された。