Réseaux de Pointeurs Mémoire Globale-locale pour le Dialogue Orienté vers les Tâches

Le dialogue orienté vers des tâches de bout en bout est un défi car les bases de connaissances sont généralement grandes, dynamiques et difficiles à intégrer dans un cadre d'apprentissage. Nous proposons les réseaux de pointeurs mémoire globaux-locaux (GLMP) pour résoudre ce problème. Dans notre modèle, un encodeur de mémoire globale et un décodeur de mémoire locale sont introduits afin de partager des connaissances externes. L'encodeur code l'historique du dialogue, modifie la représentation contextuelle globale et génère un pointeur de mémoire globale. Le décodeur génère d'abord une réponse esquissée avec des emplacements vides. Ensuite, il transmet le pointeur de mémoire globale pour filtrer les connaissances externes en vue d'obtenir des informations pertinentes, puis il instancie les emplacements grâce aux pointeurs de mémoire locale. Nous montrons empiriquement que notre modèle peut améliorer la précision de copie et atténuer le problème courant des mots hors vocabulaire. Par conséquent, GLMP est capable d'améliorer les modèles précédents de pointe sur le jeu de données bAbI Dialogue simulé et le jeu de données Stanford Multi-domain Dialogue humain-humain, tant en évaluation automatique qu'en évaluation par des humains.