HyperAIHyperAI

Command Palette

Search for a command to run...

Un cadre de propagation de pile avec détection d'intention au niveau des tokens pour la compréhension du langage parlé

Libo Qin Wanxiang Che Yangming Li Haoyang Wen Ting Liu

Résumé

La détection d’intention et le remplissage de slots sont deux tâches principales dans la construction d’un système de compréhension du langage parlé (SLU). Ces deux tâches sont étroitement corrélées, et les slots dépendent souvent fortement de l’intention. Dans cet article, nous proposons un cadre novateur pour le SLU afin d’intégrer de manière plus efficace les informations d’intention, lesquelles orientent ensuite le remplissage des slots. Dans notre cadre, nous utilisons un modèle joint basé sur une architecture Stack-Propagation, capable d’incorporer directement les informations d’intention comme entrée pour le remplissage des slots, permettant ainsi de capturer les connaissances sémantiques relatives à l’intention. En outre, afin de réduire davantage la propagation d’erreurs, nous effectuons une détection d’intention au niveau des tokens au sein du cadre Stack-Propagation. Des expériences menées sur deux jeux de données publics montrent que notre modèle atteint des performances de pointe et surpasse significativement les méthodes précédentes. Enfin, nous intégrons dans notre cadre le modèle Bidirectional Encoder Representations from Transformers (BERT), ce qui permet d’améliorer encore davantage les performances sur la tâche de SLU.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp