HyperAIHyperAI

Command Palette

Search for a command to run...

Normalisation par lots récurrente

Tim Cooijmans Nicolas Ballas César Laurent Çağlar Gülçehre Aaron Courville

Résumé

Nous proposons une réparamétrisation du LSTM (Long Short-Term Memory) qui apporte les avantages de la normalisation par lots aux réseaux de neurones récurrents. Alors que les travaux précédents n'appliquaient la normalisation par lots qu'à la transformation entrée-cachée des RNNs (Réseaux de Neurones Récurrents), nous démontrons qu'il est à la fois possible et bénéfique de normaliser par lots la transition cachée-cachée, réduisant ainsi le décalage interne des covariables entre les pas de temps. Nous évaluons notre proposition sur divers problèmes séquentiels tels que la classification de séquences, le modèle de langage et la réponse aux questions. Nos résultats empiriques montrent que notre LSTM normalisé par lots conduit systématiquement à une convergence plus rapide et à une meilleure généralisation.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp