
要約
グラフ畳み込みネットワーク(GCNs)は、グラフの頂点表現を学習する上で重要なツールとなっています。大規模なグラフにGCNsを適用する際の主な課題は、計算量とメモリ使用量が膨大になるスケーラビリティ問題です。これは、層間での制御不能な近傍展開によって引き起こされます。本論文では、適応的な層別サンプリング手法を開発することで、GCNsの訓練を加速します。上位から下位へと層を構築していく過程で、上位層に基づいて下位層をサンプリングし、異なる親ノード間でサンプリングされた近傍が共有されるため、固定サイズのサンプリングにより過度の展開が回避されます。さらに重要なのは、提案したサンプラが適応的であり、明示的な分散削減にも適用できることです。これにより、当手法の訓練が向上します。また、スキップ接続を用いることで遠隔ノード間のメッセージ伝達を促進する新しいかつ経済的なアプローチも提案しています。複数のベンチマークにおける詳細な実験結果は、当手法が分類精度において有効であることを確認しており、収束速度も速いことが示されています。