
摘要
数据通常以数组或矩阵的形式出现。矩阵分解技术通过假设矩阵可以表示为两个低秩矩阵的乘积,来尝试恢复缺失或损坏的条目。换句话说,矩阵分解通过一个简单的、固定的函数——即内积——作用于相应行和列的潜在特征向量,来近似矩阵中的条目。本文考虑用从数据中同时学习到的任意函数替代内积。具体而言,我们用一个多层前馈神经网络替代内积,并通过在固定潜在特征向量的情况下优化网络,以及在固定网络的情况下优化潜在特征向量,交替进行学习。由此产生的方法——我们简称为神经网络矩阵分解(Neural Network Matrix Factorization, NNMF)——在一系列基准测试中优于标准的低秩技术,但在利用图特征的一些最新提案面前表现逊色。鉴于NNMF框架内可使用的架构、激活函数、正则化器和优化技术种类繁多,似乎该方法的真正潜力尚未完全发挥。