
要約
我々はグラフニューラルネットワーク(GNN)における二つの基本的な課題に取り組みます。その課題は、(1) 画像処理において重要な特性である不変性学習の理論的裏付けの不足と、(2) ホモフィリックおよびヘテロフィリックのグラフデータセット双方で優れた性能を発揮する統一モデルの不在です。これらの問題に対処するために、グラフにおけるスケール不変性を確立し証明し、この重要な特性をグラフ学習に拡張しました。実世界のデータセットを用いた実験を通じてその有効性を検証しています。ディレクテッドマルチスケールグラフと適応的自己ループ戦略を活用して、我々はスケール不変性を持つ統一ネットワークアーキテクチャであるScaleNetを提案します。ScaleNetは、四つのホモフィリックおよび二つのヘテロフィリックベンチマークデータセットで最先端の性能を達成しています。さらに、スケール不変性に基づくグラフ変換により、計算コストが高いエッジ重みを一様な重みで置き換えても性能が維持または向上することを示しています。また、別の一般的なGNNアプローチとして、エルミートラプラシアン手法とインシデント正規化を使用したGraphSAGEとの等価性も示しています。ScaleNetはホモフィリックとヘテロフィリックのグラフ学習間のギャップを埋め、スケール不変性に関する理論的洞察と統一グラフ学習における実践的な進歩を提供します。当該実装は公開されており、https://github.com/Qin87/ScaleNet/tree/Aug23 からアクセスできます。