HyperAIHyperAI

Command Palette

Search for a command to run...

Réseaux de neurones récurrents relationnels

Adam Santoro*α, Ryan Faulkner*α, David Raposo*α, Jack Raeαβ, Mike Chrzanowskiα, Théophane Weberα, Daan Wierstraα, Oriol Vinyalsα, Razvan Pascanuα, Timothy Lillicrapαβ

Résumé

Les réseaux neuronaux à base de mémoire modélisent les données temporelles en exploitant leur capacité à retenir des informations sur de longues périodes. Cependant, il n'est pas clair qu'ils possèdent également la capacité d'effectuer un raisonnement relationnel complexe avec les informations qu'ils mémorisent. Dans cette étude, nous commençons par confirmer nos intuitions selon lesquelles les architectures de mémoire standard peuvent éprouver des difficultés dans les tâches qui nécessitent une compréhension approfondie des relations entre les entités -- c'est-à-dire des tâches impliquant un raisonnement relationnel. Nous améliorons ensuite ces lacunes en utilisant un nouveau module de mémoire -- le \textit{Relational Memory Core} (RMC) -- qui emploie l'attention multi-têtes par produit scalaire pour permettre aux mémoires d'interagir. Enfin, nous testons le RMC sur une série de tâches susceptibles de bénéficier d'un raisonnement relationnel plus performant au sein des informations séquentielles, et nous montrons des gains importants dans les domaines de l'apprentissage par renforcement (par exemple, Mini PacMan), l'évaluation des programmes et la modélisation linguistique, obtenant des résultats de pointe sur les jeux de données WikiText-103, Project Gutenberg et GigaWord.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp