2 个月前

通过改进图的局部混合模式来提高图神经网络的同配性以突破其限制

Susheel Suresh; Vinith Budde; Jennifer Neville; Pan Li; Jianzhu Ma
通过改进图的局部混合模式来提高图神经网络的同配性以突破其限制
摘要

图神经网络(GNNs)通过融合网络结构和节点特征,在多个基于图的学习任务中取得了巨大成功。现代GNN模型是通过消息传递机制迭代聚合邻居/邻近特征构建的。研究表明,其预测性能在很大程度上受到图中的同质混合(assortative mixing)属性的限制,这一关键特性表现为具有相似属性的节点倾向于相互连接。我们观察到,现实世界中的网络表现出异质或多样化的混合模式,而传统的全局同质性度量(如全局同质性系数)可能无法充分代表这种混合情况。为此,我们采用了更为泛化的概念——节点级同质性(node-level assortativity),该概念以节点为基础,能够更好地表示多样化模式并准确量化GNNs的学习能力。我们发现,各种GNN模型的预测性能与节点级同质性高度相关。为了突破这一限制,本研究专注于将输入图转换为包含邻近性和结构信息作为不同类型边的计算图。生成的多关系图不仅提高了同质性的水平,更重要的是保留了原始图中的丰富信息。随后,我们提出在该计算图上运行GNNs,并展示了在多样化混合模式下自适应选择结构和邻近性可以提高性能。实验结果表明,在多种现实世界的图学习基准数据集上,采用我们的转换框架进行半监督节点分类任务能够带来显著的好处。