HyperAIHyperAI
il y a 16 jours

Génération de langage naturel à faible exemple pour les dialogues orientés vers les tâches

Baolin Peng, Chenguang Zhu, Chunyuan Li, Xiujun Li, Jinchao Li, Michael Zeng, Jianfeng Gao
Génération de langage naturel à faible exemple pour les dialogues orientés vers les tâches
Résumé

Comme composant essentiel des systèmes de dialogue orientés vers une tâche, le module de génération de langage naturel (NLG) convertit un acte de dialogue représenté sous forme sémantique en une réponse exprimée en langage naturel. Le succès des modèles traditionnels basés sur des modèles prédéfinis ou statistiques repose généralement sur des données largement annotées, ce qui s'avère irréaliste pour de nouveaux domaines. Il est donc crucial qu’un système NLG puisse généraliser efficacement avec une quantité limitée de données étiquetées dans les applications réelles. À cet effet, nous proposons FewShotWoz, le premier benchmark NLG conçu pour simuler un cadre d’apprentissage par peu d’exemples (few-shot learning) dans les systèmes de dialogue orientés vers une tâche. Par ailleurs, nous développons le modèle SC-GPT, pré-entraîné sur un grand corpus annoté de NLG afin d’acquérir une capacité de génération contrôlable, puis finement ajusté à l’aide de très peu d’étiquettes spécifiques au domaine pour s’adapter à de nouveaux domaines. Des expériences menées sur FewShotWoz ainsi que sur le grand jeu de données Multi-Domain-WOZ montrent que SC-GPT dépasse significativement les méthodes existantes, selon diverses métriques automatiques ainsi que des évaluations humaines.

Génération de langage naturel à faible exemple pour les dialogues orientés vers les tâches | Articles de recherche récents | HyperAI