Invariance d'échelle des réseaux neuronaux graphiques

Nous abordons deux défis fondamentaux dans les Réseaux Neuronaux sur Graphes (RNG) : (1) le manque de soutien théorique pour l'apprentissage d'invariance, une propriété cruciale dans le traitement des images, et (2) l'absence d'un modèle unifié capable d'exceller à la fois sur des ensembles de données de graphes homophiles et hétérophiles. Pour résoudre ces problèmes, nous établissons et démontrons l'invariance d'échelle dans les graphes, étendant cette propriété clé à l'apprentissage sur graphes, et la validons par des expériences sur des ensembles de données réels. En utilisant des graphes dirigés multi-échelles et une stratégie adaptative de boucles auto, nous proposons ScaleNet, une architecture de réseau unifiée qui atteint des performances de pointe sur quatre ensembles de données homophiles et deux ensembles de données hétérophiles de référence. De plus, nous montrons que grâce à la transformation de graphe basée sur l'invariance d'échelle, des poids uniformes peuvent remplacer les poids d'arêtes coûteux en termes de calcul dans les réseaux d'inception dirigés tout en maintenant ou améliorant les performances. Pour une autre approche populaire des RNG appliquée aux graphes dirigés, nous démontrons l'équivalence entre les méthodes utilisant le laplacien hermitien et GraphSAGE avec normalisation d'incidence. ScaleNet comble le fossé entre l'apprentissage sur graphes homophiles et hétérophiles, offrant à la fois des perspectives théoriques sur l'invariance d'échelle et des avancées pratiques dans l'apprentissage unifié sur graphes. Notre implémentation est disponible au public à l'adresse suivante : https://github.com/Qin87/ScaleNet/tree/Aug23.