
摘要
图神经网络(GNNs)通过迭代执行特征传播和变换,利用邻域信息,在学习更好的表示方面取得了显著成功。然而,迭代传播限制了高层邻域的信息必须通过并融合低层邻域的信息进行传递,这不可避免地导致不同层邻域之间的特征平滑,从而可能损害性能,特别是在异质性网络中。此外,大多数深度GNNs虽然认识到高层邻域的重要性,但尚未充分探索在不同层邻域的上下文中多跳依赖对于学习更好表示的重要性。在本研究中,我们首先从理论上分析了不同层邻域之间的特征平滑现象,并通过实验证明了不同层邻域同质性水平的变化。受这些分析的启发,我们进一步提出了一种树分解方法来解耦不同层的邻域,以减轻这些层之间的特征平滑问题。此外,我们通过图扩散在树分解框架内表征多跳依赖关系,构建了树分解图神经网络(TDGNN),该网络可以灵活地结合来自较大感受野的信息,并利用多跳依赖关系聚合这些信息。广泛的实验表明,在多种节点分类设置下,TDGNN在网络同质性和异质性方面均表现出优越的性能。详尽的参数分析突显了TDGNN防止过度平滑以及结合浅层特征与深层多跳依赖关系的能力,为深入研究图神经网络提供了新的见解。TDGNN的代码:http://github.com/YuWVandy/TDGNN