
图神经网络(Graph Neural Networks, GNNs)在图深度学习领域受到了广泛关注。然而,近期的实证与理论研究表明,深层GNNs普遍存在过拟合和过度平滑问题。现有的常规解决方案要么无法缓解深层GNNs带来的显著运行时间开销,要么限制图卷积操作局限于同一特征空间内。为此,我们提出了自适应图扩散网络(Adaptive Graph Diffusion Networks, AGDNs),该方法在不同特征空间中实现多层广义图扩散,兼具适中的计算复杂度与运行效率。传统图扩散方法通常将转移矩阵的大规模、稠密幂次与预设权重系数进行组合。相比之下,AGDNs采用更小规模的多跳节点表示,并结合可学习且广义化的权重系数进行融合。为此,我们提出了两种可扩展的权重机制,以有效捕捉多跳信息:跳数注意力机制(Hop-wise Attention, HA)与跳数卷积机制(Hop-wise Convolution, HC)。我们在多样且具有挑战性的开放图基准(Open Graph Benchmark, OGB)数据集上,针对半监督节点分类与链接预测任务对AGDNs进行了全面评估。截至2022年8月26日投稿时,AGDNs在ogbn-arxiv、ogbn-proteins和ogbl-ddi数据集上均取得第一名的性能表现,在ogbl-citation2数据集上位列前三名。在同等Tesla V100 GPU硬件条件下,AGDNs在ogbn-proteins数据集上的计算复杂度比可逆图神经网络(Reversible GNNs, RevGNNs)低13%,训练时间仅为RevGNNs的1%。此外,在ogbl-citation2数据集上,AGDNs的性能可与SEAL方法相媲美,同时训练时间仅为SEAL的36%,推理时间仅为SEAL的0.2%。