HyperAIHyperAI
il y a 15 jours

Sélection de caractéristiques : Clé pour améliorer la classification de nœuds avec les réseaux neuronaux graphes

{Tsuyoshi Murata, Xin Liu, Sunil Kumar Maurya}
Résumé

Les graphes permettent de définir les relations entre les entités présentes dans les données. Ces relations, représentées par des arêtes, apportent souvent des informations contextuelles supplémentaires qui peuvent être exploitées pour découvrir des motifs au sein des données. Les réseaux de neurones sur graphes (Graph Neural Networks, GNN) exploitent l’induction structurelle du graphe pour apprendre et prédire sur diverses tâches. L’opération fondamentale des GNN repose sur une étape d’agrégation des caractéristiques effectuée sur les voisins d’un nœud, en fonction de la structure du graphe. En plus de ses propres caractéristiques, chaque nœud acquiert, à chaque itération (hop), des caractéristiques combinées provenant de ses voisins. Ces caractéristiques agrégées aident à définir la similarité ou la dissimilarité entre les nœuds par rapport aux étiquettes, ce qui est particulièrement utile pour des tâches telles que la classification de nœuds. Toutefois, dans les données du monde réel, les caractéristiques des voisins situés à différentes distances (hops) ne sont pas nécessairement corrélées avec celles du nœud cible. Une agrégation aveugle des caractéristiques par le GNN peut donc introduire des caractéristiques bruitées, entraînant une dégradation de la performance du modèle. Dans ce travail, nous démontrons qu’une agrégation sélective des caractéristiques des nœuds provenant de différentes étapes (hops) conduit à de meilleures performances sur la tâche de classification de nœuds par rapport à l’agrégation par défaut. En outre, nous proposons une architecture GNN à double réseau (Dual-Net GNN), composée d’un modèle classificateur et d’un modèle sélecteur. Le modèle classificateur s’entraîne sur un sous-ensemble des caractéristiques d’entrée des nœuds afin de prédire les étiquettes, tandis que le modèle sélecteur apprend à fournir le sous-ensemble optimal de caractéristiques au classificateur, afin d’optimiser sa performance. Ces deux modèles sont entraînés conjointement afin d’apprendre le meilleur sous-ensemble de caractéristiques permettant d’obtenir une précision accrue dans la prédiction des étiquettes. Grâce à des expérimentations étendues, nous montrons que notre modèle proposé surpasse à la fois les méthodes classiques de sélection de caractéristiques et les modèles GNN de pointe, avec des améliorations remarquables allant jusqu’à 27,8 %.

Sélection de caractéristiques : Clé pour améliorer la classification de nœuds avec les réseaux neuronaux graphes | Articles de recherche récents | HyperAI