Maximisation de l'Information Mutuelle dans les Réseaux Neuronaux Graphiques

Plusieurs cadres de réseaux neuronaux sur graphes (GNNs) pour l'apprentissage de représentations sur des graphes ont été récemment développés. Ces cadres s'appuient sur des schémas d'agrégation et d'itération pour apprendre la représentation des nœuds. Cependant, l'information entre les nœuds est inévitablement perdue au cours de ce processus d'apprentissage. Afin de réduire cette perte, nous étendons les cadres de GNNs en explorant les schémas d'agrégation et d'itération dans le cadre de l'information mutuelle. Nous proposons une nouvelle approche consistant à élargir le voisinage normal lors de l'agrégation des GNNs, visant à maximiser l'information mutuelle. Sur la base d'une série d'expériences menées sur plusieurs jeux de données de référence, nous démontrons que cette approche proposée améliore les performances actuelles de pointe pour quatre types de tâches sur graphes, y compris la classification supervisée et semi-supervisée des graphes, la prédiction des liens dans les graphes et la génération et classification des arêtes dans les graphes.