HyperAIHyperAI

Command Palette

Search for a command to run...

Sélection de réponses multi-tours pour les chatbots avec un réseau d'attention profonde

dianhai yu daxiang dong Ying Chen Yi Liu Hua Wu Xiangyang Zhou Lu Li Wayne Xin Zhao

Résumé

Les humains génèrent des réponses en s'appuyant sur des dépendances sémantiques et fonctionnelles, notamment les relations de coreférence, entre les éléments d'un dialogue et leur contexte. Dans cet article, nous étudions la correspondance entre une réponse et son contexte multi-tours en exploitant des informations de dépendance fondées entièrement sur l'attention. Notre approche s'inspire de l'architecture Transformer récemment proposée pour la traduction automatique (Vaswani et al., 2017), et nous étendons le mécanisme d'attention de deux manières. Premièrement, nous construisons des représentations de segments textuels à différentes granularités à l'aide exclusivement d'attention auto-attention empilée. Deuxièmement, nous tentons d'extraire les paires de segments véritablement correspondants à l'aide d'une attention croisée entre le contexte et la réponse. Nous introduisons conjointement ces deux types d'attention au sein d'un même réseau neuronal uniforme. Des expériences menées sur deux tâches de sélection de réponse à plusieurs tours à grande échelle montrent que le modèle proposé dépasse significativement les modèles de pointe actuels.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp