HyperAIHyperAI
vor 7 Tagen

MGDCF: Distanz-Lernen über Markov-Graf-Diffusion für neuronale kollaborative Filterung

Jun Hu, Bryan Hooi, Shengsheng Qian, Quan Fang, Changsheng Xu
MGDCF: Distanz-Lernen über Markov-Graf-Diffusion für neuronale kollaborative Filterung
Abstract

Graph Neural Networks (GNNs) werden in jüngster Zeit zunehmend eingesetzt, um Collaborative Filtering (CF)-Modelle zu entwickeln, die auf historischen Interaktionen zwischen Nutzern und Artikeln basierend Nutzerpräferenzen vorhersagen. Dennoch besteht bisher nur eine geringe Einsicht darin, wie GNN-basierte CF-Modelle mit traditionellen Ansätzen des Network Representation Learning (NRL) zusammenhängen. In diesem Artikel zeigen wir die Äquivalenz zwischen einigen state-of-the-art GNN-basierten CF-Modellen und einem traditionellen 1-Schicht-NRL-Modell, das auf Context-Encoding basiert. Auf der Grundlage eines Markov-Prozesses, der zwei Arten von Distanzen gegeneinander abwägt, stellen wir Markov Graph Diffusion Collaborative Filtering (MGDCF) vor, um einige state-of-the-art GNN-basierte CF-Modelle zu verallgemeinern. Anstatt GNNs als trainierbare Black-Box-Modelle zu betrachten, die lernbare Benutzer-/Artikel-Knoten-Embeddings propagieren, behandeln wir GNNs als nicht-trainierbare Markov-Prozesse, die konstante Kontextmerkmale für Knoten erzeugen, die dann von einem traditionellen NRL-Modell mittels einer vollständig verbundenen Schicht kodiert werden. Diese Vereinfachung ermöglicht es uns, besser zu verstehen, wie GNNs CF-Modelle verbessern. Insbesondere wird deutlich, dass Ranking-Verluste eine entscheidende Rolle bei GNN-basierten CF-Aufgaben spielen. Mit unserem vorgeschlagenen einfachen, aber leistungsfähigen Ranking-Verlust InfoBPR kann das NRL-Modell auch ohne die durch GNNs konstruierten Kontextmerkmale weiterhin gut performen. Wir führen Experimente durch, um MGDCF detailliert zu analysieren.

MGDCF: Distanz-Lernen über Markov-Graf-Diffusion für neuronale kollaborative Filterung | Neueste Forschungsarbeiten | HyperAI