HyperAIHyperAI
il y a 2 mois

Réseaux de Neurones Récurrence Graphique Variationnels

Ehsan Hajiramezanali; Arman Hasanzadeh; Nick Duffield; Krishna R Narayanan; Mingyuan Zhou; Xiaoning Qian
Réseaux de Neurones Récurrence Graphique Variationnels
Résumé

L'apprentissage de représentations sur des données structurées en graphe a principalement été étudié dans le cadre de graphes statiques, tandis que les efforts pour modéliser les graphes dynamiques restent encore limités. Dans cet article, nous développons un nouveau modèle variationnel hiérarchique qui introduit des variables aléatoires latentes supplémentaires pour modéliser conjointement les états cachés d'un réseau neuronal récurrent de graphe (GRNN) afin de capturer à la fois les changements topologiques et les variations des attributs des nœuds dans les graphes dynamiques. Nous soutenons que l'utilisation de variables aléatoires latentes de haut niveau dans ce modèle variationnel GRNN (VGRNN) peut mieux saisir la variabilité potentielle observée dans les graphes dynamiques ainsi que l'incertitude de la représentation latente des nœuds. Grâce à l'inférence variationnelle semi-implicite développée pour cette nouvelle architecture VGRNN (SI-VGRNN), nous montrons que des représentations latentes flexibles et non gaussiennes peuvent encore davantage aider aux tâches d'analyse de graphes dynamiques. Nos expériences sur plusieurs jeux de données de graphes dynamiques du monde réel démontrent que SI-VGRNN et VGRNN surpassent constamment les méthodes existantes et les meilleures techniques actuelles avec une marge significative dans la prédiction dynamique des liens.

Réseaux de Neurones Récurrence Graphique Variationnels | Articles de recherche récents | HyperAI