HyperAIHyperAI
il y a 15 jours

Les GNN classiques peuvent-ils constituer des références solides pour les tâches au niveau du graphe ? Des architectures simples atteignent l'excellence

Luo, Yuankai, Shi, Lei, Wu, Xiao-Ming
Les GNN classiques peuvent-ils constituer des références solides pour les tâches au niveau du graphe ? Des architectures simples atteignent l'excellence
Résumé

Les réseaux de neurones sur graphes à passage de messages (GNN) sont souvent critiqués pour leur faible expressivité, ainsi que pour des problèmes tels que le sur-lissage et le sur-écrasement (over-squashing), ainsi que pour leurs difficultés à capturer des dépendances à longue portée. À l’inverse, les Transformers sur graphes (GT) sont généralement considérés comme supérieurs grâce à l’utilisation de mécanismes d’attention globale, qui permettent potentiellement de surmonter ces limitations. La littérature suggère fréquemment que les GT surpassent les GNN dans les tâches au niveau du graphe, notamment pour la classification et la régression de graphes moléculaires de petite taille. Dans cette étude, nous explorons le potentiel non exploité des GNN à travers un cadre amélioré, le GNN+, qui intègre six techniques largement utilisées : intégration des caractéristiques d’arêtes, normalisation, dropout, connexions résiduelles, réseaux feed-forward et encodage positionnel, afin de traiter efficacement les tâches au niveau du graphe. Nous menons une évaluation systématique de trois GNN classiques (GCN, GIN et GatedGCN) améliorés par le cadre GNN+ sur 14 jeux de données bien établis pour les tâches au niveau du graphe. Nos résultats révèlent que, contrairement aux croyances dominantes, ces GNN classiques atteignent une performance égale ou supérieure à celle des GT sur l’ensemble des jeux de données, obtenant une place parmi les trois premiers dans tous les cas et la première place dans huit d’entre eux. En outre, ils se révèlent nettement plus efficaces, s’exécutant plusieurs fois plus vite que les GT sur de nombreux jeux de données. Cela met en lumière le potentiel des architectures GNN simples, remettant en question l’idée selon laquelle des mécanismes complexes tels que ceux des GT sont indispensables pour atteindre une performance supérieure dans les tâches au niveau du graphe. Le code source de notre travail est disponible à l’adresse suivante : https://github.com/LUOyk1999/GNNPlus.

Les GNN classiques peuvent-ils constituer des références solides pour les tâches au niveau du graphe ? Des architectures simples atteignent l'excellence | Articles de recherche récents | HyperAI