
近年、実際の応用に触発され、グラフニューラルネットワーク(GNN)における主要な研究課題の一つとして、より深い構造の探索が進められている。例えば、グラフの接続性とラベル分布が常に一致するとは限らない(たとえば、あるノードの近隣ノードの多くが同じカテゴリに属していない場合がある)。このような状況では、GNNがクラス判別的な情報を捉えるために、同じカテゴリのノードをより長い経路で発見するため、層を重ねる必要がある。しかし、より深いGNNが満足のいく性能を発揮するのを阻む2つの主要な問題が存在する。すなわち、勾配消失(vanishing gradient)と過剰平滑化(over-smoothing)である。一方で、層を重ねることにより、ネットワークの学習が困難となり、特に初期層の勾配が消失してしまう。さらに、GNNにおける勾配消失を単純に解消しようとすると、シャドウ近傍効果(shading neighbors effect)が生じることが明らかになった。これは、層の重ね方が不適切であると、グラフの非IID(独立同一分布でない)構造情報が歪められ、GNNの性能が低下する現象である。他方で、より深いGNNは共通の近傍ノードからより多くの情報を集約するため、各ノードの表現が過度に重複した特徴を共有し、最終的な出力表現の判別力が失われる(すなわち、過剰に平滑化される)という問題が生じる。本研究では、初めてこの2つの問題に同時に取り組み、より深いGNNの実現を可能にする手法を提案する。その手法が「Deeper-GXX」であり、重み減衰型グラフ残差接続モジュール(Weight-Decaying Graph Residual Connection module, WDG-ResNet)とトポロジー誘導型グラフ対比損失(Topology-Guided Graph Contrastive Loss, TGCL)から構成される。実世界のデータセットを用いた広範な実験により、Deeper-GXXが最先端の深いベースラインを上回ることを実証した。