HyperAIHyperAI

Command Palette

Search for a command to run...

Mesures de complexité architecturale des réseaux de neurones récurrents

Saizheng Zhang Yuhuai Wu Tong Che Zhouhan Lin Roland Memisevic Ruslan Salakhutdinov Yoshua Bengio

Résumé

Dans cet article, nous analysons systématiquement les architectures de connexion des réseaux de neurones récurrents (RNNs). Notre contribution principale est double : premièrement, nous présentons un cadre rigoureux basé sur la théorie des graphes pour décrire les architectures de connexion des RNNs en général. Deuxièmement, nous proposons trois mesures de complexité architecturale pour les RNNs : (a) la profondeur récurrente, qui capture la complexité non-linéaire temporelle du RNN ; (b) la profondeur feedforward, qui capture la non-linéarité locale entre l'entrée et la sortie (similaire à la « profondeur » dans les réseaux de neurones feedforward (FNNs)) ; et (c) le coefficient de saut récurrent, qui capture la vitesse à laquelle l'information se propage au fil du temps. Nous prouvons rigoureusement l'existence et le calculabilité de chaque mesure. Nos résultats expérimentaux montrent que les RNNs peuvent bénéficier d'une plus grande profondeur récurrente et feedforward. Nous démontrons également que l'augmentation du coefficient de saut récurrent offre des améliorations des performances sur les problèmes de dépendance à long terme.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp