HyperAIHyperAI

Command Palette

Search for a command to run...

Apprentissage Progressif des Réseaux de Neurones Récurents

Ziv Aharoni Gal Rattner Haim Permuter

Résumé

Les Réseaux de Neurones Récurents (RNNs) obtiennent des résultats de pointe dans de nombreuses tâches de modélisation séquence-à-séquence. Cependant, les RNNs sont difficiles à entraîner et ont tendance à souffrir de surapprentissage. Guidés par l'Inégalité du Traitement des Données (Data Processing Inequality, DPI), nous formulons le réseau multicouche comme une chaîne de Markov, introduisant une méthode d'entraînement qui consiste à entraîner le réseau progressivement et à utiliser un découpage des gradients couche par couche (layer-wise gradient clipping). Nous avons constaté que l'application de nos méthodes, combinée avec des techniques de régularisation et d'optimisation précédemment introduites, a permis d'améliorer les architectures de pointe utilisées dans les tâches de modélisation linguistique.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp