Amélioration du mécanisme d'attention dans les réseaux neuronaux graphiques par la préservation de la cardinalité

Les réseaux neuronaux sur graphes (GNNs) sont puissants pour apprendre la représentation de données structurées en graphe. La plupart des GNNs utilisent le schéma de passage de messages, où l'embedding d'un nœud est mis à jour itérativement en agrégant les informations de ses voisins. Pour améliorer la capacité expressive des influences des nœuds, le mécanisme d'attention est devenu populaire pour attribuer des poids entraînables aux nœuds lors de l'agrégation. Bien que les GNNs basés sur l'attention aient obtenu des résultats remarquables dans diverses tâches, une compréhension claire de leurs capacités discriminantes manque encore. Dans ce travail, nous présentons une analyse théorique des propriétés représentatives du GNN qui adopte le mécanisme d'attention comme agrégateur. Notre analyse détermine tous les cas où ces GNNs basés sur l'attention peuvent toujours échouer à distinguer certaines structures distinctes. Ces cas apparaissent en raison de l'ignorance des informations de cardinalité dans l'agrégation basée sur l'attention. Pour améliorer les performances des GNNs basés sur l'attention, nous proposons des modèles d'attention préservant la cardinalité (CPA) qui peuvent être appliqués à tout type de mécanismes d'attention. Nos expériences sur la classification de nœuds et de graphes confirment notre analyse théorique et montrent les performances compétitives de nos modèles CPA.