HyperAIHyperAI
il y a 2 mois

Réseaux de Neurones Récurents à Convolution Graphique Gating

Luana Ruiz; Fernando Gama; Alejandro Ribeiro
Réseaux de Neurones Récurents à Convolution Graphique Gating
Résumé

Les processus de graphe modélisent un certain nombre de problèmes importants tels que l'identification de l'épicentre d'un séisme ou la prédiction météorologique. Dans cet article, nous proposons une architecture de réseau neuronal récurrent convolutif sur graphe (GCRNN) spécialement conçue pour traiter ces problèmes. Les GCRNN utilisent des banques de filtres convolutifs pour maintenir le nombre de paramètres entraînables indépendant de la taille du graphe et des séquences temporelles considérées. Nous introduisons également les GCRNN à portes (Gated GCRNNs), une variante temporelle à portes des GCRNN, similaire aux LSTM. Lorsqu'ils sont comparés aux GNN et à une autre architecture récurrente sur graphe dans des expériences utilisant à la fois des données synthétiques et réelles, les GCRNN améliorent significativement les performances tout en utilisant beaucoup moins de paramètres.