
グラフニューラルネットワーク(GNN)は、ノードおよびエッジの特徴情報を含むグラフ構造データから学習する能力において優れた成果を上げており、ソーシャルネットワーク、レコメンデーション、不正検出、知識グラフ推論など多岐にわたる応用が実現されている。このような背景のもと、従来からGNNの表現力向上を目的としたさまざまな戦略が提案されてきた。たとえば、単純なアプローチとして、隠れ層の次元を拡大するか、GNN層の数を増やすことでパラメータ数を増やす方法が挙げられる。しかし、広い隠れ層は過学習を引き起こしやすく、GNN層を段階的に増やすことで過度なスムージング(over-smoothing)が生じるリスクも伴う。本論文では、モデルに依存しないアプローチとして、「グラフ内ネットワーク(Network In Graph Neural Network:NGNN)」と呼ばれる新規な手法を提案する。この手法により、任意のGNNモデルが層を深めることでモデル容量を拡張可能となる。ただし、GNN層を追加または拡張するのではなく、各GNN層内部に非線形な順伝播ニューラルネットワーク層を挿入することで、GNNモデルの深さを実現する。GraphSageをベースとするGNNにNGNNを適用したogbn-productsデータセットにおける分析結果から、ノード特徴やグラフ構造の摂動に対してモデルの安定性が維持されることを示した。さらに、ノード分類およびリンク予測という幅広いタスクにおいて、さまざまなGNNアーキテクチャに対して一貫した効果が確認された。具体的には、ogbn-productsにおけるGraphSageのテスト精度を1.6%向上させ、ogbl-ppaにおけるSEALのhits@100スコアを7.08%向上、ogbl-ppiにおけるGraphSage+Edge-Attrのhits@20スコアを6.22%向上させた。本論文提出時点において、OGBリンク予測リーダーボードで2つの首位を獲得している。