HyperAIHyperAI

Command Palette

Search for a command to run...

Régularisation des Réseaux de Neurones Récurents

Wojciech Zaremba* Ilya Sutskever Oriol Vinyals

Résumé

Nous présentons une technique de régularisation simple pour les Réseaux de Neurones Récurrents (RNN) avec des unités de Mémoire à Court et Long Terme (LSTM). La méthode du dropout, la plus efficace pour la régularisation des réseaux de neurones, ne fonctionne pas bien avec les RNN et LSTM. Dans cet article, nous montrons comment appliquer correctement le dropout aux LSTM, et démontrons qu'il réduit considérablement le surapprentissage sur diverses tâches. Ces tâches comprennent la modélisation linguistique, la reconnaissance vocale, la génération de légendes d'images et la traduction automatique.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp