15 天前

扩散机制提升图学习性能

Johannes Gasteiger, Stefan Weißenberger, Stephan Günnemann
扩散机制提升图学习性能
摘要

图卷积是大多数图神经网络(GNNs)的核心组件,通常通过节点与其直接邻接(一跳)邻居之间的消息传递机制进行近似。在本工作中,我们通过引入一种强大且空间局部化的图卷积方法——图扩散卷积(Graph Diffusion Convolution, GDC),打破了仅依赖直接邻居的限制。GDC利用广义图扩散过程,例如热核(heat kernel)和个性化PageRank(personalized PageRank)等,有效缓解了真实图中噪声较多且常被任意定义的边所带来的问题。我们证明,GDC与基于谱方法的模型密切相关,因而能够融合空间域(消息传递)方法与谱方法的优势。实验表明,无论是在监督学习还是无监督学习任务中,将消息传递机制替换为图扩散卷积,均能在多种模型和不同数据集上带来一致且显著的性能提升。此外,GDC不仅适用于GNNs,还可轻松集成到任何基于图的模型或算法(如谱聚类)中,无需对原有方法进行修改,也不会增加其计算复杂度。本文的实现代码已公开发布。

扩散机制提升图学习性能 | 最新论文 | HyperAI超神经