HyperAIHyperAI
il y a 15 jours

Distillation des connaissances internes à partir de liens contrastifs pour classifier les nœuds de graphe sans échange de messages

Yi Luo, Aiguo Chen, Ke Yan, Ling Tian
Distillation des connaissances internes à partir de liens contrastifs pour classifier les nœuds de graphe sans échange de messages
Résumé

Actuellement, les réseaux de neurones sur graphes (GNNs) fondés sur le paradigme d'échange de messages deviennent la méthode dominante pour l'apprentissage sur des données graphiques. Les modèles reposant sur ce paradigme doivent consacrer un espace supplémentaire pour rechercher les nœuds voisins à l'aide de matrices d'adjacence, ainsi qu'un temps supplémentaire pour agréger plusieurs messages provenant des nœuds adjacents. Pour remédier à ce problème, nous proposons une méthode appelée LinkDist, qui distille les connaissances propres à des paires de nœuds connectés dans un perceptron multicouche (MLP) sans nécessiter l'agrégation de messages. Des expérimentations menées sur 8 jeux de données réels montrent que le MLP obtenu par LinkDist est capable de prédire l'étiquette d'un nœud sans connaître ses voisins, tout en atteignant une précision comparable aux GNNs dans les contextes de classification de nœuds semi-supervisée et pleinement supervisée. En outre, LinkDist bénéficie de son paradigme non basé sur l'échange de messages, permettant ainsi de distiller les connaissances propres à des paires de nœuds échantillonnées de manière arbitraire de manière contrastive, ce qui permet d'améliorer davantage ses performances.

Distillation des connaissances internes à partir de liens contrastifs pour classifier les nœuds de graphe sans échange de messages | Articles de recherche récents | HyperAI