
摘要
图神经网络(Graph Neural Networks, GNNs)已成为处理图结构数据学习与分析问题的主流方法。然而,多项研究指出,单纯通过增加网络层数难以持续提升模型性能,存在固有的局限性。近期工作将这一现象归因于图神经网络在节点特征提取过程中特有的挑战:即需要同时考虑多种邻域规模,并自适应地调整这些规模。本文针对近期提出的随机连接(randomly wired)架构在图神经网络中的应用展开研究。与传统通过堆叠多层来构建深层网络的方式不同,我们证明采用随机连接架构能够更有效地提升网络容量,从而获得更具表现力的特征表示。研究表明,此类架构在行为上类似于多个路径的集成(ensemble of paths),能够融合来自不同感受野大小的信息贡献。此外,这些感受野的宽度还可通过路径上的可训练权重进行动态调节,实现更灵活的特征建模。我们还在多个任务及四种不同的图卷积定义下,利用近期先进的基准测试框架,提供了充分的实验证据,验证了随机连接架构在性能上显著优于传统方法,同时有效解决了以往测试方法中存在的可靠性问题。