HyperAIHyperAI
il y a 4 mois

Réseaux de neurones récurrents relationnels

Adam Santoro; Ryan Faulkner; David Raposo; Jack Rae; Mike Chrzanowski; Theophane Weber; Daan Wierstra; Oriol Vinyals; Razvan Pascanu; Timothy Lillicrap
Réseaux de neurones récurrents relationnels
Résumé

Les réseaux neuronaux à base de mémoire modélisent les données temporelles en exploitant leur capacité à retenir des informations sur de longues périodes. Cependant, il n'est pas clair qu'ils possèdent également la capacité d'effectuer un raisonnement relationnel complexe avec les informations qu'ils mémorisent. Dans cette étude, nous commençons par confirmer nos intuitions selon lesquelles les architectures de mémoire standard peuvent éprouver des difficultés dans les tâches qui nécessitent une compréhension approfondie des relations entre les entités -- c'est-à-dire des tâches impliquant un raisonnement relationnel. Nous améliorons ensuite ces lacunes en utilisant un nouveau module de mémoire -- le \textit{Relational Memory Core} (RMC) -- qui emploie l'attention multi-têtes par produit scalaire pour permettre aux mémoires d'interagir. Enfin, nous testons le RMC sur une série de tâches susceptibles de bénéficier d'un raisonnement relationnel plus performant au sein des informations séquentielles, et nous montrons des gains importants dans les domaines de l'apprentissage par renforcement (par exemple, Mini PacMan), l'évaluation des programmes et la modélisation linguistique, obtenant des résultats de pointe sur les jeux de données WikiText-103, Project Gutenberg et GigaWord.