Command Palette
Search for a command to run...
Apprendre à se souvenir de plus avec moins de mémorisation
Apprendre à se souvenir de plus avec moins de mémorisation
Hung Le Truyen Tran Svetha Venkatesh
Résumé
Les réseaux neuronaux augmentés de mémoire, composés d'un contrôleur neuronal et d'une mémoire externe, ont montré leur potentiel dans l'apprentissage séquentiel à long terme. Les modèles actuels de mémoire ressemblant à la RAM maintiennent l'accès à la mémoire à chaque pas de temps, ce qui ne permet pas une utilisation efficace de la mémoire à court terme conservée dans le contrôleur. Nous formulons l'hypothèse que ce schéma d'écriture est sous-optimal en termes d'utilisation de la mémoire et introduit des calculs redondants. Pour valider notre hypothèse, nous établissons une borne théorique sur la quantité d'informations stockées dans un système ressemblant à la RAM et formulons un problème d'optimisation qui maximise cette borne. La solution proposée, appelée Écriture Uniforme, est prouvée être optimale sous l'hypothèse de contributions égales des pas de temps. Pour assouplir cette hypothèse, nous introduisons des modifications à la solution originale, aboutissant à une méthode nommée Écriture Uniforme avec Cache (Cached Uniform Writing). Cette méthode vise à équilibrer entre la maximisation de la mémorisation et l'oubli par le biais de mécanismes d'écrasement. À travers une série exhaustive d'expériences, nous démontrons empiriquement les avantages de nos solutions par rapport aux autres architectures récurrentes, affirmant qu'elles représentent l'état de l'art dans diverses tâches de modélisation séquentielle.