Selbst-bezogene sequentielle Empfehlung

Sequentielle Dynamiken sind eine wesentliche Eigenschaft vieler moderner Empfehlungssysteme, die darauf abzielen, den „Kontext“ der Benutzeraktivitäten basierend auf kürzlich durchgeführten Aktionen zu erfassen. Um solche Muster zu erfassen, haben sich zwei Ansätze verbreitet: Markow-Ketten (MCs) und rekurrente Neuronale Netze (RNNs). Markow-Ketten gehen davon aus, dass die nächste Aktion eines Benutzers auf Grundlage seiner letzten (oder der letzten wenigen) Aktionen vorhergesagt werden kann, während RNNs grundsätzlich langfristige Semantik entdecken können. Im Allgemeinen erzielen MC-basierte Methoden die besten Ergebnisse in extrem dünn besetzten Datensätzen, wo Modellparsimonia entscheidend ist, während RNNs in dichteren Datensätzen bessere Leistungen zeigen, wo höhere Modellkomplexität tragbar ist. Ziel unserer Arbeit ist es, diese beiden Ziele auszugleichen, indem wir ein sequentielles Modell basierend auf Selbst-Aufmerksamkeit (SASRec) vorschlagen, das es uns ermöglicht, langfristige Semantiken (wie ein RNN) zu erfassen, aber durch Verwendung eines Aufmerksamkeitsmechanismus seine Vorhersagen auf relativ wenigen Aktionen (wie ein MC) basieren lässt. In jedem Zeitschritt versucht SASRec zu identifizieren, welche Elemente aus dem Aktionsverlauf eines Benutzers „relevant“ sind und nutzt diese zur Vorhersage des nächsten Elements. Ausführliche empirische Studien zeigen, dass unsere Methode sowohl in dünn besetzten als auch in dichten Datensätzen verschiedene state-of-the-art sequentielle Modelle (einschließlich MC/CNN/RNN-basierter Ansätze) übertrifft. Darüber hinaus ist unser Modell um ein Vielfaches effizienter als vergleichbare CNN/RNN-basierte Modelle. Visualisierungen der Aufmerksamkeitsgewichte verdeutlichen zudem, wie unser Modell adaptive Verarbeitung von Datensätzen mit unterschiedlicher Dichte ermöglicht und sinnvolle Muster in Aktionssequenzen aufdeckt.