HyperAIHyperAI

Command Palette

Search for a command to run...

BERT Adapté au Locuteur pour la Sélection de Réponses Multitour dans les Chatbots Basés sur la Récupération

Jia-Chen Gu Tianda Li Quan Liu Zhen-Hua Ling Zhiming Su Si Wei Xiaodan Zhu

Résumé

Dans cet article, nous examinons le problème de l'utilisation de modèles de langage pré-entraînés pour la sélection de réponses multi-tours dans les chatbots basés sur la recherche. Nous proposons un nouveau modèle appelé BERT Conscient du Locuteur (SA-BERT) afin de rendre le modèle sensible aux informations sur les changements de locuteur, une propriété importante et inhérente des dialogues multi-tours. De plus, une stratégie de désentrelacement consciente du locuteur est introduite pour traiter les dialogues entremêlés. Cette stratégie sélectionne un petit nombre d'énoncés les plus importants comme contexte filtré en fonction des informations sur les locuteurs qu'ils contiennent. Enfin, une adaptation de domaine est réalisée pour intégrer les connaissances propres au domaine dans les modèles de langage pré-entraînés. Les expériences menées sur cinq jeux de données publics montrent que notre modèle proposé surpass largement les modèles actuels sur tous les critères d'évaluation et atteint de nouvelles performances de pointe pour la sélection de réponses multi-tours.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp