
摘要
图神经网络在图表示学习领域取得了显著进展。图卷积通过邻域聚合操作实现信息传播,是图神经网络中最核心的操作之一。然而,现有邻域聚合方法通常仅考虑节点的直接邻居,当网络层数加深以扩大感受野时,模型性能往往会下降。近年来,多项研究将这一性能退化现象归因于“过平滑”(over-smoothing)问题,即反复传播导致不同类别节点的表示趋于相似,从而丧失区分能力。在本工作中,我们对这一现象进行了系统性研究,并提出了关于构建更深图神经网络的新见解。首先,我们对这一问题进行了系统分析,指出当前图卷积操作中表示变换(representation transformation)与信息传播(propagation)的紧密耦合是导致性能显著下降的关键因素。通过将这两类操作解耦,我们能够有效构建更深的图神经网络,从而从更大的感受野中学习节点表示。进一步地,我们针对构建极深模型时的上述现象提供了理论分析,该分析为“过平滑”问题提供了严谨且温和的数学刻画。基于理论与实验分析,我们提出了深度自适应图神经网络(Deep Adaptive Graph Neural Network, DAGNN),该模型能够自适应地融合来自大感受野的信息,以提升表示能力。在引用网络、合作者网络和共购网络等多组数据集上的大量实验结果验证了我们的分析与洞察,并充分证明了所提出方法的优越性。