HyperAIHyperAI
vor einem Monat

Neuronale Netzwerk-Matrixfaktorisierung

Gintare Karolina Dziugaite; Daniel M. Roy
Neuronale Netzwerk-Matrixfaktorisierung
Abstract

Daten werden häufig in Form eines Arrays oder einer Matrix vorliegen. Matrixfaktorisierungstechniken versuchen, fehlende oder beschädigte Einträge wiederherzustellen, indem sie davon ausgehen, dass die Matrix als Produkt zweier Matrizen niedrigen Rangs geschrieben werden kann. Mit anderen Worten, die Matrixfaktorisierung approximiert die Einträge der Matrix durch eine einfache, feste Funktion – nämlich das Skalarprodukt –, das auf den latenten Merkmalsvektoren für die entsprechenden Zeile und Spalte angewendet wird. Hier betrachten wir die Ersetzung des Skalarprodukts durch eine beliebige Funktion, die wir gleichzeitig mit den latenten Merkmalsvektoren aus den Daten lernen. Insbesondere ersetzen wir das Skalarprodukt durch ein mehrschichtiges feedforward-Neuronales Netz (multi-layer feed-forward neural network) und optimieren abwechselnd das Netzwerk bei festen latenten Merkmalen und die latenten Merkmale bei einem festen Netzwerk. Der resultierende Ansatz – den wir kurz neuronale Netzwerkmatrixfaktorisierung (NNMF) nennen – übertrifft Standardtechniken niedrigen Rangs in einer Reihe von Benchmarktests, wird jedoch von einigen jüngeren Vorschlägen übertroffen, die von den Grapheneigenschaften profitieren. Angesichts der großen Vielfalt an Architekturen, Aktivierungsfunktionen, Regularisierungsverfahren und Optimierungstechniken, die im Rahmen der NNMF eingesetzt werden können, scheint es wahrscheinlich, dass das volle Potenzial dieses Ansatzes noch nicht erschlossen wurde.

Neuronale Netzwerk-Matrixfaktorisierung | Neueste Forschungsarbeiten | HyperAI