HyperAIHyperAI
il y a 2 mois

BERT Adapté au Locuteur pour la Sélection de Réponses Multitour dans les Chatbots Basés sur la Récupération

Jia-Chen Gu; Tianda Li; Quan Liu; Zhen-Hua Ling; Zhiming Su; Si Wei; Xiaodan Zhu
BERT Adapté au Locuteur pour la Sélection de Réponses Multitour dans les Chatbots Basés sur la Récupération
Résumé

Dans cet article, nous examinons le problème de l'utilisation de modèles de langage pré-entraînés pour la sélection de réponses multi-tours dans les chatbots basés sur la recherche. Nous proposons un nouveau modèle appelé BERT Conscient du Locuteur (SA-BERT) afin de rendre le modèle sensible aux informations sur les changements de locuteur, une propriété importante et inhérente des dialogues multi-tours. De plus, une stratégie de désentrelacement consciente du locuteur est introduite pour traiter les dialogues entremêlés. Cette stratégie sélectionne un petit nombre d'énoncés les plus importants comme contexte filtré en fonction des informations sur les locuteurs qu'ils contiennent. Enfin, une adaptation de domaine est réalisée pour intégrer les connaissances propres au domaine dans les modèles de langage pré-entraînés. Les expériences menées sur cinq jeux de données publics montrent que notre modèle proposé surpass largement les modèles actuels sur tous les critères d'évaluation et atteint de nouvelles performances de pointe pour la sélection de réponses multi-tours.

BERT Adapté au Locuteur pour la Sélection de Réponses Multitour dans les Chatbots Basés sur la Récupération | Articles de recherche récents | HyperAI