La combinaison de la propagation des étiquettes et de modèles simples surpasse les réseaux neuronaux graphiques.

Les Réseaux Neuronaux Graphiques (RNG) sont la technique prédominante pour l'apprentissage sur les graphes. Cependant, il existe une compréhension relativement limitée des raisons de leur succès en pratique et de leur nécessité pour obtenir de bonnes performances. Dans cet article, nous montrons que pour de nombreux benchmarks standard d'classification transductive des nœuds, nous pouvons surpasser ou égaler les performances des RNG les plus avancés en combinant des modèles peu profonds qui ignorent la structure du graphe avec deux étapes simples de post-traitement exploitant la corrélation dans la structure des labels : (i) une « corrélation d'erreur » qui propage les erreurs résiduelles dans les données d'entraînement pour corriger les erreurs dans les données de test et (ii) une « corrélation de prédiction » qui adoucit les prédictions sur les données de test. Nous appelons cette procédure globale Corriger et Adoucir (C&S), et les étapes de post-traitement sont mises en œuvre par des modifications simples des techniques standard de propagation des labels issues des méthodes d'apprentissage semi-supervisé basées sur les graphes précoces. Notre approche dépasse ou s'approche presque des performances des RNG les plus avancés sur une large variété de benchmarks, avec seulement une petite fraction des paramètres et un temps d'exécution beaucoup plus rapide. Par exemple, nous surpassons la meilleure performance connue des RNG sur le jeu de données OGB-Products avec 137 fois moins de paramètres et plus de 100 fois moins de temps d'entraînement. Les performances de nos méthodes soulignent comment l'intégration directe des informations sur les labels dans l'algorithme d'apprentissage (comme c'était le cas dans les techniques traditionnelles) permet d'obtenir facilement et substantiellement des gains en performance. Nous pouvons également intégrer nos techniques dans de grands modèles RNG, offrant ainsi des gains modestes. Notre code pour les résultats OGB est disponible à l'adresse https://github.com/Chillee/CorrectAndSmooth.