HyperAIHyperAI

Command Palette

Search for a command to run...

Évaluation empirique des réseaux neuronaux récurrents à portes pour la modélisation de séquences

Junyoung Chung; Caglar Gulcehre; KyungHyun Cho; Yoshua Bengio

Résumé

Dans cet article, nous comparons différents types d'unités récurrentes dans les réseaux de neurones récurrents (RNN). Nous nous concentrons particulièrement sur des unités plus sophistiquées qui mettent en œuvre un mécanisme de porte, telles que l'unité de mémoire à court et long terme (LSTM) et l'unité récurrente à portes (GRU) récemment proposée. Nous évaluons ces unités récurrentes sur les tâches de modélisation musicale polyphonique et de modélisation de signaux vocaux. Nos expériences ont montré que ces unités récurrentes avancées sont effectivement meilleures que les unités récurrentes traditionnelles comme les unités tanh. De plus, nous avons constaté que la GRU est comparable à la LSTM.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Évaluation empirique des réseaux neuronaux récurrents à portes pour la modélisation de séquences | Articles | HyperAI