15日前
GRAND+:スケーラブルなグラフランダムニューラルネットワーク
Wenzheng Feng, Yuxiao Dong, Tinglin Huang, Ziqi Yin, Xu Cheng, Evgeny Kharlamov, Jie Tang

要約
グラフニューラルネットワーク(GNN)は、グラフ上の半教師あり学習において広く採用されている。最近の研究では、グラフランダムニューラルネットワーク(GRAND)モデルがこの問題において最先端の性能を達成できることを示している。しかしながら、GRANDの効果は計算コストが非常に高いデータ拡張手順に依存しているため、大規模なグラフ処理には不向きであるという課題がある。本研究では、半教師ありグラフ学習を対象としたスケーラブルかつ高性能なGNNフレームワーク「GRAND+」を提案する。この課題を解決するために、GRAND+では一般化前方プッシュ(GFPush)アルゴリズムを導入し、事前に一般的な伝搬行列を計算し、ミニバッチ形式でグラフデータ拡張を実行する。GFPushの低時間・空間計算量の特徴により、GRAND+は大規模なグラフへ効率的にスケーリング可能であることを示した。さらに、モデル最適化に信頼度を考慮した一貫性損失(confidence-aware consistency loss)を導入することで、GRAND+の汎化性能の優位性をさらに強化した。本研究では、サイズの異なる7つの公開データセットを用いて広範な実験を実施した。その結果、GRAND+は(1)大規模グラフへのスケーリングが可能であり、既存のスケーラブルGNNよりも少ない実行時間で処理できること、(2)すべてのデータセットにおいてフルバッチ型およびスケーラブルGNNと比較して一貫した精度向上を達成できることを明らかにした。