Filtrage collaboratif neuronal versus factorisation matricielle révisés

Les modèles basés sur des embeddings ont été la norme dans le filtrage collaboratif depuis plus d'une décennie. Traditionnellement, le produit scalaire ou ses généralisations d'ordre supérieur ont été utilisés pour combiner deux ou plusieurs embeddings, comme cela est notamment le cas dans la factorisation matricielle. Ces dernières années, il a été proposé de remplacer le produit scalaire par une similarité apprise, par exemple à l’aide d’un perceptron multicouche (MLP). Cette approche est généralement désignée sous le nom de filtrage collaboratif neuronal (NCF). Dans ce travail, nous revisitons les expériences présentées dans l'article fondateur du NCF, qui a popularisé l’utilisation de similarités apprises via des MLPs. Premièrement, nous montrons qu’avec une sélection appropriée des hyperparamètres, un simple produit scalaire surpasse largement les similarités apprises proposées. Deuxièmement, bien qu’un MLP puisse théoriquement approximer n’importe quelle fonction, nous démontrons qu’il n’est pas trivial d’apprendre un produit scalaire à l’aide d’un MLP. Enfin, nous abordons les problèmes pratiques liés à l’application de similarités basées sur des MLPs, et mettons en évidence que ces derniers sont trop coûteux pour être utilisés dans des environnements de production pour la recommandation d’articles, tandis que les produits scalaires permettent d’appliquer des algorithmes de recherche très efficaces. Nous concluons que les MLPs doivent être utilisés avec précaution comme combinateurs d’embeddings, et que le produit scalaire pourrait constituer un choix par défaut plus pertinent.