HyperAIHyperAI

Command Palette

Search for a command to run...

Où est allé l'écart ? Réévaluation du benchmark de graphes à longue portée

Jan Tönshoff Martin Ritzert Eran Rosenbluth Martin Grohe

Résumé

Le récent Long-Range Graph Benchmark (LRGB, Dwivedi et al., 2022) a introduit un ensemble de tâches d'apprentissage sur graphes fortement dépendantes des interactions à longue portée entre les sommets. Des preuves empiriques suggèrent que, pour ces tâches, les Graph Transformers surpassent considérablement les GNNs par passage de messages (MPGNNs). Dans cet article, nous réévaluons soigneusement plusieurs baselines MPGNN ainsi que le Graph Transformer GPS (Rampášek et al., 2022) sur LRGB. Grâce à une analyse empirique rigoureuse, nous démontrons que l'écart de performance rapporté est surestimé en raison de choix sous-optimaux de hyperparamètres. Il est notable que, après une optimisation de base des hyperparamètres, l'écart de performance disparaît complètement sur plusieurs jeux de données. De plus, nous discutons de l'impact du manque de normalisation des caractéristiques pour les jeux de données d'imagerie de LRGB et mettons en évidence une implémentation erronée de la métrique de prédiction de liens de LRGB. L'objectif principal de notre article est d'établir un niveau plus élevé de rigueur empirique au sein de la communauté d'apprentissage automatique sur graphes.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp