Casser le Plafond : Des Réseaux de Neurones Convolutifs Graphiques Multi-échelles Plus Puissants

Récemment, les approches basées sur les réseaux de neurones ont réalisé des améliorations significatives pour la résolution de problèmes structurés en grands graphes complexes. Cependant, leurs points de blocage doivent encore être abordés, et les avantages de l'information multi-échelle et des architectures profondes n'ont pas été suffisamment exploités. Dans cet article, nous analysons théoriquement comment les Graph Convolutional Networks (GCNs) existants ont une puissance expressive limitée en raison des contraintes des fonctions d'activation et de leurs architectures. Nous généralisons la convolution spectrale de graphe et les GCNs profonds sous forme de sous-espaces de Krylov par blocs, et nous concevons deux architectures, chacune ayant le potentiel d'être élargie à des profondeurs plus grandes mais utilisant l'information multi-échelle de manières différentes. Nous montrons également que l'équivalence entre ces deux architectures peut être établie sous certaines conditions. Sur plusieurs tâches de classification de nœuds, avec ou sans l'aide d'une validation, les deux nouvelles architectures obtiennent de meilleures performances comparées à nombre de méthodes d'avant-garde.