Variationale Autoencoder für kollaboratives Filtern

Wir erweitern variationelle Autoencoder (VAEs) auf kollaboratives Filtern für implizites Feedback. Dieses nichtlineare wahrscheinlichkeitstheoretische Modell ermöglicht es uns, die begrenzte Modellierungsfähigkeit linearer Faktormodelle zu übertreffen, die das Forschungsfeld des kollaborativen Filterns noch immer weitgehend dominieren. Wir führen ein generatives Modell mit multinomialer Wahrscheinlichkeitsverteilung ein und verwenden Bayessche Inferenz zur Parameterschätzung. Trotz seiner weit verbreiteten Anwendung im Bereich der Sprachmodellierung und Ökonomie findet die multinomiale Wahrscheinlichkeitsverteilung in der Literatur zu Empfehlungssystemen weniger Beachtung. Wir führen einen anderen Regularisierungsparameter für das Lernziel ein, der sich als entscheidend für die Erreichung einer wettbewerbsfähigen Leistung herausstellt. Bemerkenswerterweise gibt es eine effiziente Methode, den Parameter durch Abkühlung (annealing) einzustellen. Das resultierende Modell und Lernalgorithmus haben informationstheoretische Verbindungen zum Prinzip der maximalen Entropiediskriminierung und zum Informationsflaschenhalsprinzip (information bottleneck principle). Empirisch zeigen wir, dass der vorgeschlagene Ansatz bei mehreren realen Datensätzen erheblich besser abschneidet als mehrere Stand-of-the-Art-Verfahren, darunter zwei neu vorgeschlagene neuronale Netzansätze. Wir stellen außerdem erweiterte Experimente vor, in denen wir die multinomiale Wahrscheinlichkeitsverteilung mit anderen gängigen Likelihood-Funktionen in der Literatur zu latenten Faktoren beim kollaborativen Filtern vergleichen und günstige Ergebnisse erzielen. Schließlich identifizieren wir Vor- und Nachteile eines prinzipiellen Bayesschen Inferenzansatzes und charakterisieren Szenarien, in denen dieser Ansatz die bedeutendsten Verbesserungen bietet.