Où est allé l'écart ? Réévaluation du benchmark de graphes à longue portée

Le récent Long-Range Graph Benchmark (LRGB, Dwivedi et al., 2022) a introduit un ensemble de tâches d'apprentissage sur graphes fortement dépendantes des interactions à longue portée entre les sommets. Des preuves empiriques suggèrent que, pour ces tâches, les Graph Transformers surpassent considérablement les GNNs par passage de messages (MPGNNs). Dans cet article, nous réévaluons soigneusement plusieurs baselines MPGNN ainsi que le Graph Transformer GPS (Rampášek et al., 2022) sur LRGB. Grâce à une analyse empirique rigoureuse, nous démontrons que l'écart de performance rapporté est surestimé en raison de choix sous-optimaux de hyperparamètres. Il est notable que, après une optimisation de base des hyperparamètres, l'écart de performance disparaît complètement sur plusieurs jeux de données. De plus, nous discutons de l'impact du manque de normalisation des caractéristiques pour les jeux de données d'imagerie de LRGB et mettons en évidence une implémentation erronée de la métrique de prédiction de liens de LRGB. L'objectif principal de notre article est d'établir un niveau plus élevé de rigueur empirique au sein de la communauté d'apprentissage automatique sur graphes.