RaSeRec: Retrieval-Augmentierte Sequenzielle Empfehlung

Obwohl vorherrschende überwachte und selbstüberwachte Lernmodelle für sequenzielle Empfehlungen (SeRec) durch leistungsfähige neuronale Netzarchitekturen verbesserte Ergebnisse erzielt haben, argumentieren wir, dass sie noch zwei Einschränkungen aufweisen: (1) Präferenzverschiebung (Preference Drift), bei der Modelle, die auf vergangenen Daten trainiert wurden, Schwierigkeiten haben, sich anpassende Benutzerpräferenzen zu berücksichtigen; und (2) Implizites Gedächtnis (Implicit Memory), bei dem dominante Kopfmuster das parametrische Lernen beeinflussen und es schwieriger machen, lange Schwanzmuster zu rekonstruieren. In dieser Arbeit untersuchen wir die Erweiterung von SeRec durch Retrieval-Methoden, um diese Einschränkungen zu überwinden. Insbesondere schlagen wir einen Retrieval-erweiterten Rahmen für sequenzielle Empfehlungen vor, den wir RaSeRec nennen. Das Kernkonzept von RaSeRec besteht darin, ein dynamisches Gedächtnisreservoir zu unterhalten, um Präferenzverschiebungen zu akkommodieren und relevante Erinnerungen abzurufen, um die Benutzermodellierung explizit zu erweitern. Es besteht aus zwei Phasen: (i) kollaborationsbasierter Vortrainingsphase, in der das Modell lernt zu empfehlen und abzurufen; und (ii) retrieval-erweiterter Feinabstimmungsphase, in der das Modell lernt, die abgerufenen Erinnerungen effektiv zu nutzen. Ausführliche Experimente auf drei Datensätzen belegen vollständig die Überlegenheit und Effektivität von RaSeRec. Der Implementierungscode ist unter https://github.com/HITsz-TMG/RaSeRec verfügbar.