Une comparaison équitable des réseaux de neurones graphiques pour la classification de graphes

La reproductibilité et la reproductibilité expérimentales constituent des enjeux fondamentaux en apprentissage automatique. Les auteurs ont fréquemment exprimé des préoccupations quant à leur absence dans les publications scientifiques, afin d’améliorer la qualité du domaine. Récemment, le domaine de l’apprentissage des représentations de graphes a attiré l’attention d’une vaste communauté de recherche, entraînant une importante production de travaux. À ce titre, plusieurs modèles de réseaux de neurones sur graphes (GNN) ont été développés afin de traiter efficacement la classification de graphes. Toutefois, les procédures expérimentales manquent souvent de rigueur et sont difficilement reproductibles. Motivés par ce constat, nous présentons un aperçu des pratiques courantes à éviter afin de permettre des comparaisons justes avec l’état de l’art. Pour contrer cette tendance préoccupante, nous avons mené plus de 47 000 expériences dans un cadre contrôlé et uniforme afin de réévaluer cinq modèles populaires sur neuf benchmarks courants. En outre, en comparant les GNN à des modèles de référence indépendants de la structure, nous fournissons des preuves convaincantes selon lesquelles, sur certains jeux de données, les informations structurelles n’ont pas encore été pleinement exploitées. Nous pensons que ce travail peut contribuer au développement du domaine de l’apprentissage sur graphes en offrant une base solide pour des évaluations rigoureuses des modèles de classification de graphes.