4ヶ月前

FAT-DeepFFM: Field Attentive Deep Field-aware Factorization Machine FAT-DeepFFM:フィールド注意深層フィールド認識ファクタリゼーションマシン

Junlin Zhang; Tongwen Huang; Zhiqi Zhang
FAT-DeepFFM: Field Attentive Deep Field-aware Factorization Machine
FAT-DeepFFM:フィールド注意深層フィールド認識ファクタリゼーションマシン
要約

クリックスルー率(CTR)の推定は、パーソナライズ広告およびレコメンデーションシステムにおける基本的な課題です。近年、深層学習ベースのモデルと注意メカニズムがコンピュータビジョン(CV)や自然言語処理(NLP)の様々なタスクで成功を収めています。深層CTRモデルに注意メカニズムを組み合わせる方法は有望な方向性であると考えられています。これは、両者の長所を融合する可能性があるためです。Attentional Factorization Machine (AFM)などの一部のCTRモデルでは、2次交互作用特徴量の重みをモデリングするために注意メカニズムが提案されていますが、私たちは明示的な特徴量交互作用プロセス前の特徴量重要度の評価もCTR予測タスクにおいて重要であると主張します。特に、多くの入力特徴量を持つタスクでは、モデルが情報量のある特徴量を選択的に強調し、有用性の低い特徴量を抑制できるようになることが期待されます。本論文では、Deep Field-aware Factorization Machine (DeepFFM)と私たちが提案したSqueeze-Excitation network (SENet)の強化版であるCompose-Excitation network (CENet)によるフィールド注意メカニズムを組み合わせた新しいニューラルCTRモデルであるField Attentive Deep Field-aware Factorization Machine (FAT-DeepFFM)を提案します。このモデルは特徴量重要度を強調することにより、予測性能を向上させることが期待されます。我々は2つの実世界データセットを使用して広範な実験を行い、実験結果はFAT-DeepFFMが最良の性能を達成し、最先端手法に対して異なる程度での改善が得られることを示しています。また、2種類の注意メカニズム(明示的な特徴量交互作用前後の注意)について比較し、前者が後者よりも大幅に優れていることを確認しました。

FAT-DeepFFM: Field Attentive Deep Field-aware Factorization Machine FAT-DeepFFM:フィールド注意深層フィールド認識ファクタリゼーションマシン | 論文 | HyperAI超神経