FAT-DeepFFM: Feldbewusste tiefes Feld-aware Factorization Machine

Die Schätzung der Click-Through-Rate (CTR) ist eine grundlegende Aufgabe im personalisierten Werben und in Empfehlungssystemen. In den letzten Jahren haben sowohl tiefes Lernen als auch die Aufmerksamkeitsmechanismen in verschiedenen Aufgaben der Computer Vision (CV) und der natürlichen Sprachverarbeitung (NLP) Erfolge verzeichnet. Die Kombination des Aufmerksamkeitsmechanismus mit tiefen CTR-Modellen ist eine vielversprechende Richtung, da sie die Vorteile beider Ansätze potenziell vereinen kann. Obwohl einige CTR-Modelle wie die Attentional Factorization Machine (AFM) vorgeschlagen wurden, um das Gewicht von Interaktionsmerkmalen zweiter Ordnung zu modellieren, gehen wir davon aus, dass die Bewertung der Merkmalswichtigkeit vor dem expliziten Merkmalsinteraktionsprozess für CTR-Vorhersageaufgaben ebenfalls wichtig ist. Dies liegt daran, dass das Modell lernen kann, informierende Merkmale selektiv hervorzuheben und weniger nützliche zu unterdrücken, wenn die Aufgabe viele Eingabemerkmale hat.In dieser Arbeit schlagen wir ein neues neuronales CTR-Modell namens Field Attentive Deep Field-aware Factorization Machine (FAT-DeepFFM) vor. Dabei kombinieren wir die Deep Field-aware Factorization Machine (DeepFFM) mit einem von uns entwickelten Compose-Excitation Netzwerk (CENet)-Feldaufmerksamkeitsmechanismus, einer erweiterten Version des Squeeze-Excitation Netzwerks (SENet), um die Merkmalswichtigkeit hervorzuheben. Wir führen umfangreiche Experimente auf zwei realen Datensätzen durch und zeigen, dass FAT-DeepFFM die beste Leistung erzielt und über den Stand der Technik hinaus unterschiedliche Verbesserungen bietet. Zudem vergleichen wir zwei Arten von Aufmerksamkeitsmechanismen (Aufmerksamkeit vor dem expliziten Merkmalsinteraktionsprozess versus Aufmerksamkeit nach dem expliziten Merkmalsinteraktionsprozess) und demonstrieren, dass der erste Mechanismus den zweiten signifikant übertrifft.