Une proposition de perceptron multicouche avec une unité de grille graphique pour l'apprentissage de représentation de graphes et son application au modèle surrogat pour la méthode des éléments finis

Les réseaux de neurones graphiques (GNN) sont des réseaux de neurones dédiés à l’apprentissage de représentations pour des données structurées en graphe, dont la plupart sont construits en empilant des couches de convolution graphique. Comme l’empilement de n couches équivaut à propager les informations provenant de voisins situés à n sauts, les GNN nécessitent un nombre suffisamment élevé de couches pour apprendre efficacement des graphes de grande taille. Toutefois, cela entraîne généralement une dégradation des performances du modèle en raison d’un phénomène connu sous le nom de sur-lissage (over-smoothing). Dans ce travail, en proposant un nouveau modèle GNN fondé sur l’empilement de réseaux de neurones feedforward munis de structures d’activation (gating) utilisant des GCN, nous tentons de résoudre le problème de sur-lissage, permettant ainsi de surmonter les difficultés rencontrées par les GNN dans l’apprentissage de grands graphes. Les résultats expérimentaux montrent que la méthode proposée améliore de manière monotone la précision de prédiction jusqu’à 20 couches sans sur-lissage, tandis que la méthode classique entraîne ce phénomène dès 4 à 8 couches. Dans deux expériences menées sur des graphes de grande taille — le jeu de données PPI, un standard pour la classification inductive des nœuds, et une application au modèle substitut (surrogate model) des méthodes d’éléments finis — la méthode proposée atteint la précision la plus élevée parmi les méthodes existantes comparées, notamment une précision de pointe de 99,71 % sur le jeu de données PPI.