
摘要
基于谱图卷积算子的现有图神经网络(GNNs)因性能退化问题而受到广泛批评,这一现象在深度模型架构中尤为显著。本文进一步揭示了现有GNNs中存在的“停滞现象”(suspended animation problem)。当模型深度达到某一临界值——即停滞极限时,模型将不再对训练数据产生响应,从而丧失学习能力,陷入不可学习状态。本文将深入分析导致该停滞现象的根本原因,并同时探讨若干可能影响该问题的外围因素。为解决上述问题,本文提出了一种新型框架——GResNet(图残差网络),该框架通过构建广泛连接的“高速通道”,在模型所有层级中持续引入节点的原始特征或中间表示,实现信息的高效传递。与传统学习设置不同,图数据中固有的复杂连接结构使得现有的简单残差学习方法失效。本文从范数保持(norm preservation)的角度,理论证明了所引入的新图残差项的有效性,该机制可有效抑制相邻层之间节点表示的剧烈变化。本文还对多种现有GNN模型(包括GCN、GAT和LoopyNet)进行了GResNet框架的详细研究,并在多个真实世界基准数据集上开展了大量实证实验,充分验证了所提方法的优越性能与普适性。