
摘要
如今,遵循消息传递(Message Passing)范式的图神经网络(Graph Neural Networks, GNNs)已成为处理图数据学习任务的主流方法。然而,这类模型需依赖邻接矩阵查找邻接节点,额外占用存储空间,并在聚合多个邻接节点消息时引入额外计算开销。为解决这一问题,我们提出一种名为LinkDist的新方法,该方法将连接节点对之间的自知识(self-knowledge)提炼至多层感知机(Multi-Layer Perceptron, MLP)中,无需进行消息聚合操作。在8个真实世界数据集上的实验表明,由LinkDist生成的MLP模型在不依赖节点邻接信息的情况下,仍能准确预测节点标签,且在半监督与全监督节点分类任务中,性能可与主流GNN模型相媲美。此外,得益于其非消息传递的范式,LinkDist还可通过对比学习的方式,从任意采样的节点对中进一步提炼自知识,从而持续提升模型性能。