Factorisation matricielle par réseau neuronal

Les données sont souvent présentées sous forme de tableau ou de matrice. Les techniques de factorisation matricielle tentent de récupérer les entrées manquantes ou corrompues en supposant que la matrice peut être écrite comme le produit de deux matrices de rang faible. Autrement dit, la factorisation matricielle approxime les entrées de la matrice par une fonction simple et fixe — à savoir, le produit scalaire — agissant sur les vecteurs de caractéristiques latentes correspondant à la ligne et à la colonne. Ici, nous envisageons de remplacer le produit scalaire par une fonction arbitraire que nous apprenons à partir des données en même temps que nous apprenons les vecteurs de caractéristiques latentes. Plus précisément, nous remplaçons le produit scalaire par un réseau neuronal multicouche à alimentation directe (feed-forward), et nous apprenons en alternant entre l'optimisation du réseau pour des caractéristiques latentes fixes, et l'optimisation des caractéristiques latentes pour un réseau fixe. L'approche résultante — que nous appelons factorisation matricielle par réseau neuronal ou NNMF (Neural Network Matrix Factorization) — domine les techniques standards de rang faible dans une série de benchmarks, mais est surpassée par certaines propositions récentes qui exploitent les caractéristiques graphiques. Étant donné la vaste gamme d'architectures, fonctions d'activation, régularisateurs et techniques d'optimisation qui peuvent être utilisés dans le cadre de NNMF, il semble probable que le véritable potentiel de cette approche n'a pas encore été pleinement exploité.