Un Modèle de Langue Simple pour le Dialogue Orienté vers les Tâches

Le dialogue orienté vers les tâches est souvent décomposé en trois sous-tâches : la compréhension de l'entrée utilisateur, la décision d'action et la génération d'une réponse. Bien que cette décomposition puisse suggérer l'utilisation d'un modèle dédié pour chaque sous-tâche, nous constatons qu'une approche simple et unifiée conduit à des performances de pointe sur le jeu de données MultiWOZ. SimpleTOD est une approche simplifiée du dialogue orienté vers les tâches qui utilise un seul modèle de langage causal formé sur toutes les sous-tâches, reformulées comme un problème unique de prédiction de séquence. Cela permet à SimpleTOD d'exploiter pleinement le transfert d'apprentissage provenant des modèles pré-entraînés de domaine ouvert, tels que GPT-2. SimpleTOD améliore la précision conjointe des objectifs pour le suivi de l'état du dialogue par rapport à l'état de l'art précédent, et notre analyse révèle une robustesse aux annotations bruyantes dans ce contexte. SimpleTOD améliore également les principaux indicateurs utilisés pour évaluer les décisions d'action et la génération de réponses dans un cadre bout-en-bout : le taux d'information augmente de 8,1 points, le taux de succès de 9,7 points et le score combiné de 7,2 points.