HyperAIHyperAI
il y a 12 jours

Réseaux de neurones graphiques hypercomplexes paramétrés pour la classification de graphes

Tuan Le, Marco Bertolini, Frank Noé, Djork-Arné Clevert
Réseaux de neurones graphiques hypercomplexes paramétrés pour la classification de graphes
Résumé

Malgré les progrès récents dans l’apprentissage des représentations dans les espaces hypercomplexes (HC), ce domaine reste largement sous-exploré dans le contexte des graphes. Inspirés par les algèbres complexes et quaternioniques, qui se sont révélées efficaces dans divers contextes pour permettre un apprentissage de représentations intégrant naturellement un mécanisme de partage de poids, nous proposons des réseaux de neurones sur graphes exploitant les propriétés de la transformation hypercomplexe des caractéristiques. Plus précisément, dans notre classe de modèles proposée, la règle de multiplication définissant l’algèbre elle-même est apprise à partir des données pendant l’entraînement. Étant donné une architecture de modèle fixe, nous fournissons des preuves empiriques selon lesquelles notre modèle implémente un effet de régularisation, réduisant ainsi le risque de surapprentissage. Nous montrons également que, pour une capacité de modèle fixe, notre méthode surpasser l’équivalent réel du GNN correspondant, confirmant ainsi de manière supplémentaire l’expressivité accrue des embeddings hypercomplexes. Enfin, nous évaluons notre GNN hypercomplexe sur plusieurs jeux de données standard ouverts pour graphes et démontrons que nos modèles atteignent des performances de pointe tout en nécessitant une empreinte mémoire bien plus faible et environ 70 % moins de paramètres. Nos implémentations sont disponibles à l’adresse suivante : https://github.com/bayer-science-for-a-better-life/phc-gnn.