HyperAIHyperAI

Command Palette

Search for a command to run...

Suivi efficace de l'état de dialogue séquentiel à séquentiel

Jeffrey Zhao Mahdis Mahdieh Ye Zhang Yuan Cao Yonghui Wu

Résumé

Les modèles sequence-to-sequence ont été appliqués à une grande variété de tâches de traitement du langage naturel, mais l’utilisation optimale de ces modèles pour le suivi d’état de dialogue n’a pas encore été systématiquement explorée. Dans cet article, nous étudions ce problème sous l’angle des objectifs de pré-entraînement ainsi que des formats de représentation du contexte. Nous démontrons que le choix de l’objectif de pré-entraînement a un impact significatif sur la qualité du suivi d’état. En particulier, nous constatons que la prédiction de segments masqués est plus efficace que le modèle de langage auto-régressif. Nous explorons également l’utilisation de Pegasus, un objectif de pré-entraînement basé sur la prédiction de segments conçu pour la résumé de texte, dans le cadre du suivi d’état de dialogue. Nos résultats montrent que le pré-entraînement sur une tâche apparemment éloignée comme la résumé de texte se révèle étonnamment performant pour le suivi d’état de dialogue. En outre, bien que la représentation récurrente de l’état du contexte fonctionne également de manière raisonnable, le modèle peut éprouver des difficultés à se remettre des erreurs commises plus tôt. Des expériences ont été menées sur les jeux de données MultiWOZ 2.1-2.4, WOZ 2.0 et DSTC2, avec des observations cohérentes.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp