HyperAIHyperAI
il y a 2 mois

Compréhension conjointe en ligne du langage parlé et modélisation linguistique avec des réseaux de neurones récurrents

Bing Liu; Ian Lane
Compréhension conjointe en ligne du langage parlé et modélisation linguistique avec des réseaux de neurones récurrents
Résumé

La détection de l'intention du locuteur et le remplissage sémantique des slots sont deux tâches cruciales dans la compréhension du langage parlé (SLU) pour les systèmes de dialogue. Dans cet article, nous décrivons un modèle de réseau neuronal récurrent (RNN) qui effectue conjointement la détection d'intention, le remplissage des slots et la modélisation linguistique. Le modèle de réseau neuronal met à jour continuellement l'estimation de l'intention au fur et à mesure que les mots de l'utterance transcrite arrivent, et utilise cette estimation comme caractéristiques contextuelles dans le modèle conjoint. L'évaluation du modèle de langue et du modèle SLU en ligne est réalisée sur l'ensemble de données de référence ATIS. Pour la tâche de modélisation linguistique, notre modèle conjoint atteint une réduction relative de 11,8 % de la perplexité par rapport au modèle de langue formé indépendamment. Pour les tâches SLU, notre modèle conjoint surpasse le modèle formé pour des tâches indépendantes avec une amélioration de 22,3 % du taux d'erreur de détection d'intention, bien qu'il y ait une légère dégradation du score F1 pour le remplissage des slots. Le modèle conjoint montre également des performances avantageuses dans des configurations ASR réalistes avec un discours bruité en entrée.

Compréhension conjointe en ligne du langage parlé et modélisation linguistique avec des réseaux de neurones récurrents | Articles de recherche récents | HyperAI