
近年来,受实际应用场景的驱动,图神经网络(GNNs)的一个重要研究方向是探索更深的网络结构。例如,在许多实际场景中,图的拓扑连接性与标签分布并不一致(如某些节点的最近邻并非同类别节点)。在此情况下,GNN需要堆叠更多层,通过更长的路径寻找同类别邻居,以捕捉具有类别判别性的信息。然而,深度GNN的性能提升受到两大关键问题的制约,即梯度消失与过平滑(over-smoothing)问题。一方面,随着网络层数的增加,神经网络的训练变得困难,因为前几层的梯度容易消失。此外,若仅简单地缓解梯度消失问题,我们发现会出现“阴影邻居效应”(shading neighbors effect)——即不恰当地堆叠层会扭曲图结构中非独立同分布(non-IID)的信息,从而导致GNN性能下降。另一方面,深度GNN在信息聚合过程中会从大量公共邻居中获取信息,导致各节点的表示向量之间共享过多重叠特征,使得最终输出的表示缺乏判别性,即出现过度平滑现象。本文首次同时针对上述两个核心问题,提出了一种名为Deeper-GXX的新方法。该方法由两个核心模块构成:权重衰减图残差连接模块(Weight-Decaying Graph Residual Connection, WDG-ResNet)和拓扑引导图对比损失函数(Topology-Guided Graph Contrastive Loss, TGCL)。WDG-ResNet通过引入动态权重衰减机制,有效缓解梯度消失问题,同时抑制阴影邻居效应;TGCL则利用图的拓扑结构引导对比学习,增强节点表示的判别能力,抑制过平滑。在多个真实世界数据集上的大量实验结果表明,Deeper-GXX显著优于现有的先进深度GNN基线方法,验证了其在构建深层图神经网络方面的有效性与优越性。