HyperAIHyperAI
il y a 15 jours

Les GNN classiques sont des références solides : une réévaluation des GNN pour la classification de nœuds

Yuankai Luo, Lei Shi, Xiao-Ming Wu
Les GNN classiques sont des références solides : une réévaluation des GNN pour la classification de nœuds
Résumé

Les Transformateurs de Graphes (GTs) sont récemment apparus comme des alternatives populaires aux Réseaux de Neurones sur Graphes (GNNs) basés sur le passage de messages traditionnels, en raison de leur expressivité théoriquement supérieure et des performances remarquables rapportées sur des benchmarks standard de classification de nœuds, souvent nettement supérieures à celles des GNNs. Dans ce papier, nous menons une analyse empirique approfondie afin de réévaluer les performances de trois modèles classiques de GNNs (GCN, GAT et GraphSAGE) face aux GTs. Nos résultats suggèrent que la supériorité précédemment rapportée des GTs pourrait avoir été exagérée en raison de configurations sous-optimales des hyperparamètres dans les GNNs. De manière remarquable, après une légère optimisation des hyperparamètres, ces modèles classiques de GNNs atteignent des performances de pointe, égalant ou dépassant celles des GTs récents sur 17 des 18 jeux de données diversifiés étudiés. Par ailleurs, nous réalisons des études d’ablation détaillées afin d’explorer l’impact de différentes configurations de GNNs — telles que la normalisation, le dropout, les connexions résiduelles et la profondeur du réseau — sur la performance en classification de nœuds. Cette étude vise à promouvoir un niveau plus élevé de rigueur empirique dans le domaine de l’apprentissage automatique sur graphes, en encourageant des comparaisons et évaluations plus précises des capacités des modèles.

Les GNN classiques sont des références solides : une réévaluation des GNN pour la classification de nœuds | Articles de recherche récents | HyperAI