
摘要
过拟合(over-fitting)和过平滑(over-smoothing)是开发用于节点分类的深度图卷积网络(Graph Convolutional Networks, GCNs)面临的两个主要障碍。具体而言,过拟合会削弱在小数据集上的泛化能力,而随着网络深度的增加,过平滑通过隔离输出表示与输入特征,阻碍了模型训练。本文提出了一种新颖且灵活的技术——DropEdge,以缓解这两个问题。其核心思想是在每个训练周期中随机删除输入图中的一定数量的边,既起到了数据增强的作用,也减少了消息传递的数量。此外,我们从理论上证明了DropEdge要么减缓了过平滑的收敛速度,要么减轻了由过平滑引起的信息损失。更重要的是,我们的DropEdge是一种通用技术,可以与其他多种骨干模型(如GCN、ResGCN、GraphSAGE和JKNet)结合使用,以提升性能。大量的实验验证了DropEdge在多个基准测试中能够一致地提高浅层和深层GCN的性能。同时,我们也通过实证方法对DropEdge防止过平滑的效果进行了可视化和验证。代码已发布在https://github.com/DropEdge/DropEdge。