UltraGCN : Une simplification extrême des réseaux de convolution sur graphe pour la recommandation

Grâce au succès récent des réseaux de convolution sur graphe (GCN), ceux-ci ont été largement appliqués aux systèmes de recommandation, remportant des gains de performance remarquables. Le cœur des GCN réside dans leur mécanisme d’échange de messages, permettant d’agréger les informations des voisins. Toutefois, nous avons observé que cet échange de messages ralentit considérablement la convergence des GCN pendant l’entraînement, en particulier dans les systèmes de recommandation à grande échelle, ce qui freine leur adoption généralisée. LightGCN a proposé une première tentative d’approche simplifiée des GCN pour le filtrage collaboratif en éliminant les transformations de caractéristiques et les activations non linéaires. Dans cet article, nous allons plus loin en proposant une formulation ultra-simplifiée des GCN (désignée UltraGCN), qui évite les couches infinies d’échange de messages pour permettre une recommandation plus efficace. Au lieu d’un échange explicite de messages, UltraGCN approche directement la limite des convolutions de graphe à couche infinie grâce à une perte contrainte. Par ailleurs, UltraGCN permet une affectation plus pertinente des poids d’arêtes et une adaptation flexible des poids relatifs entre différents types de relations. Ce qui aboutit à un modèle UltraGCN simple mais efficace, facile à implémenter et à entraîner de manière rapide. Les résultats expérimentaux sur quatre jeux de données standard montrent que UltraGCN dépasse non seulement les modèles GCN de pointe, mais atteint également un gain de vitesse supérieur à 10× par rapport à LightGCN. Le code source sera disponible à l’adresse suivante : https://reczoo.github.io/UltraGCN.