
摘要
时间信息在推荐系统问题中至关重要,因为用户偏好在现实世界中本质上是动态变化的。近年来,深度学习的快速发展,尤其是自然语言处理领域中各类注意力机制的发现以及新型网络架构的涌现(除广泛使用的RNN和CNN外),使得更好地利用用户所交互物品的时间顺序成为可能。其中,受自然语言处理中广受欢迎的Transformer模型启发的SASRec模型,已取得了当前最优的性能表现。然而,SASRec与原始Transformer模型一样,本质上是一个非个性化模型,未引入个性化的用户嵌入(user embeddings)。为克服这一局限,我们提出了一种个性化Transformer模型——SSE-PT,在五个真实世界数据集上,其在NDCG@10指标上相比SASRec提升了近5%。此外,通过对部分随机用户的行为历史进行分析,我们发现所提出的模型不仅更具可解释性,还能有效聚焦于每位用户最近的交互模式。进一步地,通过微调后的SSE-PT++模型,该模型能够处理极长的序列,同时在排序性能上超越SASRec,且训练速度相当,实现了性能与效率之间的良好平衡。我们创新性地应用了随机共享嵌入(Stochastic Shared Embeddings, SSE)正则化方法,这是实现个性化成功的关键。相关代码与数据已开源,详见:https://github.com/SSE-PT/SSE-PT。