7日前

SSE-PT:パーソナライズド・トランスフォーマーを用いた順次推薦

{James Sharpnack, Cho-Jui Hsieh, Shuqing Li, Liwei Wu}
SSE-PT:パーソナライズド・トランスフォーマーを用いた順次推薦
要約

時系列情報は、ユーザーの嗜好が現実世界では自然に変化するため、推薦問題において極めて重要である。近年、自然言語処理分野において広く用いられているRNNやCNNに加え、さまざまなアテンション機構や新しいアーキテクチャの発見を背景に、深層学習の進展により、各ユーザーが関与したアイテムの時系列順序をより効果的に活用できるようになった。特に、自然言語処理分野で広く知られるTransformerモデルをモデル化のインスピレーションとして採用したSASRecモデルは、最先端の性能を達成している。しかし、SASRecは元のTransformerモデルと同様、本質的に個人化されていないモデルであり、個々のユーザーを表すパーソナライズドな埋め込み(embedding)を含んでいないという限界を持つ。この問題を克服するため、本研究ではパーソナライズド・トランスフォーマー(SSE-PT)モデルを提案する。このモデルは、5つの実世界データセットにおいてNDCG@10でSASRecをほぼ5%上回る性能を達成した。さらに、ランダムに選ばれたユーザーの関与履歴を検討した結果、本モデルは解釈可能性が高く、各ユーザーに対して最近の関与パターンに焦点を当てる能力も有していることが分かった。また、わずかな修正を加えたSSE-PT++という拡張モデルは、極めて長い時系列データを扱うことができ、訓練速度は同等ながらランキング性能においてSASRecを上回り、性能と速度のバランスを適切に取っている。本研究の成功の鍵となるのは、新しい形で応用された確率的共有埋め込み(Stochastic Shared Embeddings: SSE)正則化の導入である。コードとデータは、GitHubにてオープンソース公開されている(https://github.com/SSE-PT/SSE-PT)。

SSE-PT:パーソナライズド・トランスフォーマーを用いた順次推薦 | 最新論文 | HyperAI超神経