GCNH : Une Méthode Simple Pour l'Apprentissage de Représentation sur les Graphes Hétérophiles

Les réseaux neuronaux sur graphes (GNNs) sont bien adaptés à l'apprentissage sur des graphes homophiles, c'est-à-dire des graphes dans lesquels les arêtes ont tendance à relier des nœuds du même type. Cependant, l'obtention d'une performance GNN cohérente sur des graphes hétérophiles reste un problème de recherche ouvert. Des travaux récents ont proposé des extensions aux architectures GNN standard pour améliorer la performance sur des graphes hétérophiles, en échangeant la simplicité du modèle contre la précision de prédiction. Néanmoins, ces modèles échouent à capturer des propriétés de graphe fondamentales, telles que la distribution des étiquettes de voisinage, qui sont essentielles pour l'apprentissage. Dans ce travail, nous proposons le GCN pour l'hétérophilie (GCNH), une architecture GNN simple mais efficace applicable à la fois aux scénarios hétérophiles et homophiles. Le GCNH apprend et combine des représentations distinctes pour un nœud et ses voisins, en utilisant un coefficient d'importance appris par couche pour équilibrer les contributions des nœuds centraux et des voisinages. Nous menons des expériences approfondies sur huit graphes du monde réel et un ensemble de graphes synthétiques avec différents degrés d'hétérophilie pour démontrer comment les choix de conception du GCNH conduisent à une amélioration notable par rapport à un GCN standard. De plus, le GCNH surpassa les modèles de pointe beaucoup plus complexes sur quatre des huit benchmarks, tout en produisant des résultats comparables sur les jeux de données restants. Enfin, nous discutons et analysons la complexité inférieure du GCNH, qui entraîne moins de paramètres entraînables et des temps d'entraînement plus rapides que d'autres méthodes, et montrons comment le GCNH atténue le problème de sureffacement (oversmoothing).