GRAND+ : Réseaux de neurones aléatoires sur graphes évolutifs

Les réseaux de neurones graphiques (GNN) sont largement utilisés pour l’apprentissage semi-supervisé sur les graphes. Une étude récente a montré que le modèle Graph Random Neural Network (GRAND) peut atteindre des performances de pointe pour ce type de problème. Toutefois, GRAND peine à traiter efficacement les grands graphes, car son efficacité repose sur des procédures d’augmentation de données coûteuses en calcul. Dans ce travail, nous proposons un cadre GNN évolutif et performant, nommé GRAND+, pour l’apprentissage semi-supervisé sur les graphes. Pour surmonter ce problème, nous avons conçu un algorithme de propagation généralisée par poussée (GFPush) dans GRAND+, permettant de pré-calculer une matrice de propagation générale, puis d’appliquer l’augmentation de données graphiques de manière mini-batch. Nous démontrons que la faible complexité temporelle et spatiale de GFPush permet à GRAND+ de s’échelonner efficacement aux grands graphes. En outre, nous introduisons une fonction de perte de cohérence consciente de la confiance dans l’optimisation du modèle GRAND+, ce qui renforce sa supériorité en généralisation. Nous menons des expérimentations étendues sur sept jeux de données publiques de tailles différentes. Les résultats montrent que GRAND+ : 1) est capable de s’échelonner aux grands graphes tout en nécessitant un temps d’exécution inférieur à celui des GNN évolutifs existants ; et 2) offre des améliorations constantes en précision par rapport à la fois aux GNN basés sur des lots complets et aux GNN évolutifs sur l’ensemble des jeux de données.