DAGCN : Réseaux de Convolution Graphique à Double Attention

Les réseaux de neurones convolutifs sur graphes (GCNs) sont récemment devenus l'un des outils les plus puissants pour les tâches d'analyse de graphes dans de nombreuses applications, allant des réseaux sociaux et du traitement du langage naturel à la bioinformatique et la chimio-informatique, grâce à leur capacité à capturer les relations complexes entre les concepts. Actuellement, la grande majorité des GCNs utilise un cadre d'agrégation de voisinage pour apprendre un vecteur continu et compact, puis effectue une opération de pooling pour généraliser l'embedding de graphe pour la tâche de classification. Ces approches présentent deux inconvénients dans la tâche de classification de graphes : (1) lorsque seule la plus grande sous-structure de graphe (voisinage $k$-hop) est utilisée pour l'agrégation de voisinage, une grande quantité d'informations précoces est perdue lors de l'étape de convolution de graphe ; (2) le pooling par moyenne/simple somme ou le max pooling utilisé perdent les caractéristiques propres à chaque nœud ainsi que la topologie entre les nœuds.Dans cet article, nous proposons un nouveau cadre appelé réseaux de neurones convolutifs sur graphes avec attention double (DAGCN) pour résoudre ces problèmes. Le DAGCN apprend automatiquement l'importance des voisins à différents sauts en utilisant une nouvelle couche de convolution graphique avec attention, puis emploie un deuxième composant d'attention, une couche de pooling avec attention propre, pour généraliser la représentation du graphe à partir des différents aspects d'un embedding matriciel du graphe. Le réseau à attention double est formé d'une manière end-to-end pour la tâche de classification de graphes. Nous comparons notre modèle aux noyaux graphiques les plus avancés et à d'autres méthodes d'apprentissage profond. Les résultats expérimentaux montrent que notre cadre non seulement surpassent les autres méthodes basiques mais atteint également un meilleur taux de convergence.