
要約
グラフニューラルネットワーク(GNN)は、グラフ上に定義されたデータに対する学習および解析問題において、標準的な手法として定着しつつある。しかし、層数を増やすことで性能をさらに向上させることには本質的な困難があるという複数の研究結果が示されている。最近の研究では、この現象はグラフベースのタスクにおけるノード特徴量の抽出に特有のものであり、同時に複数の近傍サイズを考慮し、それらを適応的に調整する必要があることに起因するとされている。本論文では、グラフニューラルネットワークの文脈において最近提案された「ランダムに接続されたアーキテクチャ(randomly wired architectures)」に着目する。層を多数積み重ねて深層化するのではなく、ランダムに接続された構造を採用することで、ネットワークの表現能力を高め、より豊かな表現を獲得できることが理論的に示される。我々は、このようなアーキテクチャが複数のパスのアンサンブルのように振る舞い、異なるサイズの受容領域(receptive fields)からの寄与を統合できることを示す。さらに、これらの受容領域はパス上の学習可能な重みによって、広くも狭くも調整可能であることを明らかにする。また、複数のタスクおよび4種類のグラフ畳み込み定義において、従来のテスト手法の信頼性に関する問題を克服した最新のベンチマークフレームワークを用いて、ランダムに接続されたアーキテクチャの優れた性能を広範な実験的証拠によって示す。