15 天前

重新思考与重新设计连续图扩散泛函空间中的图神经网络

Tingting Dan, Jiaqi Ding, Ziquan Wei, Shahar Z Kovalsky, Minjeong Kim, Won Hwa Kim, Guorong Wu
重新思考与重新设计连续图扩散泛函空间中的图神经网络
摘要

图神经网络(Graph Neural Networks, GNNs)在社交网络、生物系统等众多领域得到广泛应用。然而,GNNs所依赖的局部性假设——即信息仅限于邻近节点之间传播——限制了其捕捉图中长程依赖关系与全局结构模式的能力。为解决这一问题,我们提出一种基于变分分析的新归纳偏置,灵感源自最速降线问题(Brachistochrone problem)。该框架建立了离散GNN模型与连续扩散泛函之间的映射关系,从而能够在连续域中设计面向特定应用的目标函数,并构建具备数学理论保障的离散深度模型。针对GNN中存在的过平滑(over-smoothing)问题,我们对现有的逐层图嵌入模型进行了深入分析,发现其本质上等价于图梯度的L²范数积分泛函,这正是导致过平滑现象的根本原因。类比图像去噪中的保边滤波器,我们引入全变差(Total Variation, TV)正则项,使图扩散过程更契合全局社区拓扑结构,有效抑制过度平滑。此外,我们设计了一种选择性机制,以平衡模型深度与过平滑之间的权衡关系,该机制可无缝集成至现有GNN架构中。为进一步提升图结构上的动态传播建模能力,我们提出一种新型生成对抗网络(Generative Adversarial Network, GAN),通过神经输运方程(neural transport equation)预测图中的传播流。为缓解传播流消失问题,我们定制了目标函数,旨在最小化社区内部的传输量,同时最大化社区之间的传播流动。实验结果表明,所提出的GNN模型在Cora、Citeseer和Pubmed等主流图学习基准数据集上均取得了当前最优(State-of-the-Art, SOTA)性能。

重新思考与重新设计连续图扩散泛函空间中的图神经网络 | 最新论文 | HyperAI超神经