Neuronale kollaborative Filterung im Vergleich zu Matrixfaktorisierung erneut betrachtet

Embedding-basierte Modelle sind seit über einem Jahrzehnt die State-of-the-Art-Methode im Bereich des kollektiven Filterns. Traditionell wurden das Skalarprodukt oder dessen höherwertige Äquivalente verwendet, um zwei oder mehr Embeddings zu kombinieren, beispielsweise in der Matrixfaktorisierung. In den letzten Jahren wurde vorgeschlagen, das Skalarprodukt durch eine gelernte Ähnlichkeitsfunktion zu ersetzen, etwa mittels eines mehrschichtigen Perzeptrons (MLP). Dieser Ansatz wird häufig als neuronales kollektives Filtern (Neural Collaborative Filtering, NCF) bezeichnet. In dieser Arbeit revidieren wir die Experimente des ursprünglichen NCF-Papiers, das gelernte Ähnlichkeiten mittels MLPs populär gemacht hat. Zunächst zeigen wir, dass bei geeigneter Hyperparameterauswahl ein einfaches Skalarprodukt die vorgeschlagenen gelernten Ähnlichkeiten erheblich übertrifft. Zweitens, obwohl ein MLP theoretisch jede Funktion approximieren kann, zeigen wir, dass es nicht trivial ist, ein Skalarprodukt mit einem MLP zu lernen. Schließlich diskutieren wir praktische Herausforderungen, die sich bei der Anwendung von MLP-basierten Ähnlichkeitsfunktionen ergeben, und zeigen, dass MLPs für die Item-Empfehlung in Produktionsumgebungen zu kostspielig sind, während das Skalarprodukt effiziente Retrieval-Algorithmen ermöglicht. Wir schließen daraus, dass MLPs als Kombinatoren für Embeddings mit Vorsicht einzusetzen sind und dass das Skalarprodukt möglicherweise eine bessere Standardwahl darstellt.