7 天前

MGDCF:基于马尔可夫图扩散的神经协同过滤距离学习

Jun Hu, Bryan Hooi, Shengsheng Qian, Quan Fang, Changsheng Xu
MGDCF:基于马尔可夫图扩散的神经协同过滤距离学习
摘要

图神经网络(Graph Neural Networks, GNNs)近年来被广泛用于构建协同过滤(Collaborative Filtering, CF)模型,以基于用户-物品的历史交互行为预测用户偏好。然而,目前对于GNN-based CF模型与传统网络表示学习(Network Representation Learning, NRL)方法之间的内在联系仍缺乏深入理解。本文揭示了若干前沿GNN-based CF模型与一种基于上下文编码的典型单层NRL模型之间的等价性。基于一种权衡两类距离的马尔可夫过程,我们提出了马尔可夫图扩散协同过滤(Markov Graph Diffusion Collaborative Filtering, MGDCF),用以泛化当前若干先进的GNN-based CF模型。与以往将GNN视为可训练黑箱、通过传播可学习的用户/物品节点嵌入的方式不同,本文将GNN视为一个不可训练的马尔可夫过程,其作用是为传统NRL模型构建固定的节点上下文特征。该上下文特征由一个全连接层进行编码。这种简化不仅有助于更清晰地理解GNN在CF任务中的作用机制,尤其揭示了排序损失(ranking loss)在GNN-based CF任务中的关键作用。基于我们提出的简洁而强大的排序损失函数InfoBPR,即使不依赖GNN构建的上下文特征,NRL模型依然能够保持优异的性能。为验证所提方法的有效性,我们进行了系统的实验,并对MGDCF模型进行了深入的分析。