HyperAIHyperAI

Command Palette

Search for a command to run...

Transformateur de Propagation sur Graphe pour l'Apprentissage de Représentation de Graphe

Zhe Chen Hao Tan Tao Wang Tianrun Shen Tong Lu Qiuying Peng Cheng Cheng Yue Qi

Résumé

Ce document présente une nouvelle architecture de transformer pour l'apprentissage de représentations de graphes. L'insight central de notre méthode est de prendre pleinement en compte la propagation d'information entre les nœuds et les arêtes dans un graphe lors de la construction du module d'attention dans les blocs de transformer. Plus précisément, nous proposons un nouveau mécanisme d'attention appelé Graph Propagation Attention (GPA). Il transmet explicitement l'information entre les nœuds et les arêtes de trois manières, à savoir nœud-à-nœud, nœud-à-arête et arête-à-nœud, ce qui est essentiel pour l'apprentissage des données structurées en graphe. Sur cette base, nous concevons une architecture efficace de transformer nommée Graph Propagation Transformer (GPTrans) pour aider davantage à l'apprentissage des données de graphe. Nous vérifions les performances de GPTrans dans une large gamme d'expériences d'apprentissage sur plusieurs jeux de données de référence. Ces résultats montrent que notre méthode surpasse de nombreux modèles graphiques basés sur des transformers d'avant-garde avec des performances supérieures. Le code sera mis à disposition sur https://github.com/czczup/GPTrans.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp