
要約
グラフニューラルネットワーク(GNNs)は、特徴量の伝播と変換を反復的に実行することで近傍情報を利用し、より良い表現学習を達成するという点で著しい成功を収めています。しかし、反復的な伝播は、上層の近傍情報が下層の近傍情報を通じて伝送され、融合される制約があり、異なる層間での特徴量平滑化を避けられず、特に異質性ネットワークでは性能が低下する可能性があります。さらに、多くの深層GNNは上層の近傍情報の重要性を認識していますが、異なる層間の近傍情報におけるマルチホップ依存関係の重要性を十分に探索していません。本研究では、まず理論的に異なる層間での特徴量平滑化を分析し、経験的に異なる層間の同質性レベルの変動を示します。これらの分析に基づいて、我々はさらに異なる層間での近傍情報を分離し、これらの層間での特徴量平滑化を軽減するためにツリー分解手法を提案します。また、我々のツリー分解フォーマリゼーション内でグラフ拡散を通じてマルチホップ依存関係を特徴づけ、大規模な受容野からの情報を柔軟に組み込みつつその情報をマルチホップ依存関係を利用して集約できるツリー分解グラフニューラルネットワーク(TDGNN)を構築します。包括的な実験結果は、様々なノード分類設定においてTDGNNが同質性ネットワークおよび異質性ネットワーク双方で優れた性能を持つことを示しています。広範なパラメータ解析は、TDGNNが過剰な平滑化を防ぎつつ浅い層から深いマルチホップ依存関係まで特徴量を取り込む能力があることを強調しており、これは深層グラフニューラルネットワークへの新しい洞察を与えています。TDGNN のコード: http://github.com/YuWVandy/TDGNN