Latentes Relationales Metriklernen durch Speicherbasierte Aufmerksamkeit für Kollaboratives Rangfolgen

Dieses Papier schlägt eine neue neuronale Architektur für die kollaborative Rangfolgebildung bei implizitem Feedback vor. Unser Modell, LRML (\textit{Latent Relational Metric Learning}), ist ein neuartiger Ansatz des metrischen Lernens für Empfehlungssysteme. Genauer gesagt, anstatt einfache Push-Pull-Mechanismen zwischen Benutzer- und Artikelpaaren, schlagen wir vor, latente Beziehungen zu lernen, die jede Benutzer-Artikel-Interaktion beschreiben. Dies hilft, die potenzielle geometrische Starrheit bestehender metrischer Lernansätze zu verringern. Dadurch wird nicht nur eine bessere Leistung ermöglicht, sondern auch eine erweiterte Modellierungsfähigkeit, die es unserem Modell ermöglicht, auf eine größere Anzahl von Interaktionen zu skalieren. Um dies zu erreichen, verwenden wir ein erweitertes Speichermodul und lernen, über diese Speicherblöcke aufzumerken, um latente Beziehungen zu konstruieren. Das speicherbasierte Aufmerksamkeitsmodul wird durch die Benutzer-Artikel-Interaktion gesteuert, sodass der gelernte Beziehungsvektor spezifisch für jedes Benutzer-Artikel-Paar ist. Somit kann dies als das Lernen einer exklusiven und optimalen relationalen Übersetzung für jede Benutzer-Artikel-Interaktion interpretiert werden. Die vorgeschlagene Architektur zeigt den Stand der Technik in mehreren Empfehlungsbenchmarks. LRML übertreffen andere metrische Lernmodelle um $6\%-7{,}5\%$ in Bezug auf Hits@10 und nDCG@10 auf großen Datensätzen wie Netflix und MovieLens20M. Darüber hinaus zeigen qualitative Studien auch Beweise dafür, dass unser vorgeschlagenes Modell explizite Stimmungs-, zeitliche und attributive Informationen ableiten und kodieren kann, obwohl es nur anhand von implizitem Feedback trainiert wurde. Damit wird die Fähigkeit von LRML bestätigt, verborgene relationale Strukturen innerhalb von impliziten Datensätzen aufzudecken.