HyperAIHyperAI

Command Palette

Search for a command to run...

Réseaux de Mémoire De Bout en Bout

Sainbayar Sukhbaatar Arthur Szlam Jason Weston Rob Fergus

Résumé

Nous présentons un réseau neuronal doté d'un modèle d'attention récurrente sur une mémoire externe potentiellement importante. Cette architecture est une forme de Réseau à Mémoire (Memory Network) (Weston et al., 2015), mais contrairement au modèle de cette étude, elle est formée de manière end-to-end, ce qui réduit considérablement la supervision nécessaire lors de l'entraînement, la rendant ainsi plus largement applicable dans des contextes réalistes. Elle peut également être considérée comme une extension de RNNsearch au cas où plusieurs étapes de calcul (sauts) sont effectuées pour chaque symbole de sortie. La flexibilité du modèle nous permet de l'appliquer à des tâches aussi variées que la réponse à des questions (synthétiques) et la modélisation linguistique. Pour la première tâche, notre approche est compétitive avec les Réseaux à Mémoire, mais nécessite moins de supervision. Pour la seconde, sur les ensembles de données Penn TreeBank et Text8, notre méthode montre des performances comparables à celles des RNNs et LSTMs. Dans les deux cas, nous démontrons que le concept clé de multiples sauts computationnels améliore les résultats.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp