HyperAIHyperAI

Command Palette

Search for a command to run...

Réseaux de Neurones Récurents à Convolution Graphique Gating

Luana Ruiz Fernando Gama Alejandro Ribeiro

Résumé

Les processus de graphe modélisent un certain nombre de problèmes importants tels que l'identification de l'épicentre d'un séisme ou la prédiction météorologique. Dans cet article, nous proposons une architecture de réseau neuronal récurrent convolutif sur graphe (GCRNN) spécialement conçue pour traiter ces problèmes. Les GCRNN utilisent des banques de filtres convolutifs pour maintenir le nombre de paramètres entraînables indépendant de la taille du graphe et des séquences temporelles considérées. Nous introduisons également les GCRNN à portes (Gated GCRNNs), une variante temporelle à portes des GCRNN, similaire aux LSTM. Lorsqu'ils sont comparés aux GNN et à une autre architecture récurrente sur graphe dans des expériences utilisant à la fois des données synthétiques et réelles, les GCRNN améliorent significativement les performances tout en utilisant beaucoup moins de paramètres.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Réseaux de Neurones Récurents à Convolution Graphique Gating | Articles | HyperAI