2 个月前

基于记忆注意力的潜在关系度量学习用于协同排序

Yi Tay; Anh Tuan Luu; Siu Cheung Hui
基于记忆注意力的潜在关系度量学习用于协同排序
摘要

本文提出了一种新的神经架构,用于基于隐式反馈的协同排序。我们的模型,即LRML(潜在关系度量学习)是一种新颖的推荐系统度量学习方法。具体而言,我们不仅采用了用户与项目对之间的简单推拉机制,还提出了学习描述每个用户-项目交互的潜在关系。这有助于缓解现有度量学习方法可能存在的几何刚性问题。因此,该方法不仅提高了性能,还增强了建模能力,使我们的模型能够扩展到更多的交互数据。为了实现这一目标,我们引入了一个增强的记忆模块,并学会了在这些记忆块上进行注意力操作以构建潜在关系。基于记忆的注意力模块由用户-项目交互控制,使得学习到的关系向量对每个用户-项目对都是特定的。因此,可以将其解释为为每个用户-项目交互学习一个独特且最优的关系转换。所提出的架构在多个推荐基准测试中表现出最先进的性能。在Netflix和MovieLens20M等大型数据集上,LRML在Hits@10和nDCG@10指标上的表现比其他度量学习模型高出6%至7.5%。此外,定性研究也提供了证据表明,尽管我们的模型仅基于隐式反馈进行训练,但它能够推断并编码显式的 sentiment(情感)、temporal(时间)和 attribute(属性)信息。这证实了LRML在隐式数据集中揭示隐藏关系结构的能力。

基于记忆注意力的潜在关系度量学习用于协同排序 | 最新论文 | HyperAI超神经