HyperAIHyperAI

Command Palette

Search for a command to run...

Distillation des connaissances internes à partir de liens contrastifs pour classifier les nœuds de graphe sans échange de messages

Yi Luo Aiguo Chen Ke Yan Ling Tian

Résumé

Actuellement, les réseaux de neurones sur graphes (GNNs) fondés sur le paradigme d'échange de messages deviennent la méthode dominante pour l'apprentissage sur des données graphiques. Les modèles reposant sur ce paradigme doivent consacrer un espace supplémentaire pour rechercher les nœuds voisins à l'aide de matrices d'adjacence, ainsi qu'un temps supplémentaire pour agréger plusieurs messages provenant des nœuds adjacents. Pour remédier à ce problème, nous proposons une méthode appelée LinkDist, qui distille les connaissances propres à des paires de nœuds connectés dans un perceptron multicouche (MLP) sans nécessiter l'agrégation de messages. Des expérimentations menées sur 8 jeux de données réels montrent que le MLP obtenu par LinkDist est capable de prédire l'étiquette d'un nœud sans connaître ses voisins, tout en atteignant une précision comparable aux GNNs dans les contextes de classification de nœuds semi-supervisée et pleinement supervisée. En outre, LinkDist bénéficie de son paradigme non basé sur l'échange de messages, permettant ainsi de distiller les connaissances propres à des paires de nœuds échantillonnées de manière arbitraire de manière contrastive, ce qui permet d'améliorer davantage ses performances.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp