
要約
自然言語処理(NLP)分野における最新の研究成果は、大規模言語モデル(LLM)の成功に寄与している強力な記憶能力の重要性を示している。この知見を踏まえ、CTRランキングモデルに独立した記憶機構を明示的に導入し、クロス特徴の表現を学習および記憶する手法の検討が促進されている。本論文では、CTRタスクにおけるクロス特徴表現の効率的な学習と記憶を実現するため、マルチハッシュコードブックネットワーク(HCNet)を記憶機構として提案する。HCNetはマルチハッシュコードブックを主記憶領域として用い、記憶プロセス全体を「マルチハッシュアドレス指定」「記憶の復元」「特徴の縮小」という3段階に分けて構成している。さらに、DNNバックボーンとHCNetを組み合わせた新たなCTRモデルであるMemoNetを提案する。3つの公開データセットおよびオンラインテストにおける広範な実験結果から、MemoNetが最先端の手法を上回る優れた性能を達成したことが確認された。さらに、MemoNetはNLP分野における大規模言語モデルのスケーリング則(scaling law)を示しており、HCNetにおけるコードブックのサイズを拡大することで継続的な性能向上が得られることを示している。本研究は、クロス特徴の表現を学習・記憶することの重要性と実現可能性を実証し、新たな有望な研究方向性の提示に貢献した。