7日前

近隣強化型教師付き対比学習を用いた協調フィルタリング

Peijie Sun, Le Wu, Kun Zhang, Xiangzhi Chen, Meng Wang
近隣強化型教師付き対比学習を用いた協調フィルタリング
要約

推薦タスクにおいて有効である一方で、協調フィルタリング(CF)手法はデータのスパース性という課題に直面している。研究者たちは、この問題に対処するために対照学習(contrastive learning)を活用し、追加の自己教師信号を導入し始めている。しかし、このアプローチはしばしば意図せず、ターゲットとなるユーザーまたはアイテムをその協調的近傍から遠ざける結果となり、その有効性を制限する。こうした問題に対応して、本研究では、アンカーノードの協調的近傍を最終的な目的関数におけるポジティブサンプルとして扱う解決策を提案する。本論文では、教師付き信号と対照学習を効果的に統合する2種類の独自の教師付き対照損失関数の開発に焦点を当てる。我々は勾配の観点から提案する損失関数を分析し、異なるポジティブサンプルがアンカーノードの埋め込みを同時に更新する影響を持つことを示した。これらのサンプルの影響度は、アンカーノードとの類似性およびネガティブサンプルとの関係に依存する。グラフベースの協調フィルタリングモデルをバックボーンとし、既存の対照学習モデルSGLと同様のデータ拡張手法を採用することで、推薦モデルの性能を著しく向上させた。提案する「ネイバー強化型教師付き対照損失(Neighborhood-Enhanced Supervised Contrastive Loss: NESCL)」モデルは、SGLにおける対照損失関数を本研究の新規損失関数に置き換えることで、顕著な性能向上を達成した。実世界の3つのデータセット(Yelp2018、Gowalla、Amazon-Book)において、NDCG@20の指標でそれぞれSGLを10.09%、7.09%、35.36%上回った。

近隣強化型教師付き対比学習を用いた協調フィルタリング | 最新論文 | HyperAI超神経