Un cadre sans seuil basé sur Transformer pour la compréhension linguistique multi-intentionnelle

L'understanding du langage naturel à plusieurs intentions (NLU) a récemment suscité un intérêt croissant. Il permet de détecter plusieurs intentions au sein d'une même utterance, ce qui s'aligne mieux sur les scénarios du monde réel. Toutefois, les modèles d'état de l'art basés sur une approche conjointe de NLU détectent principalement les multiples intentions selon une stratégie seuil, ce qui engendre un problème majeur : la grande sensibilité du modèle aux réglages du seuil. Dans cet article, nous proposons un modèle de NLU multi-intentions sans seuil basé sur un transformateur (TFMN), intégrant un apprentissage multi-tâches (MTL). Plus précisément, nous utilisons d'abord plusieurs couches d'un encodeur basé sur le transformateur pour générer des représentations à plusieurs granularités. Ensuite, nous exploitons, sans nécessiter d'annotations manuelles supplémentaires, l'information relative au nombre d'intentions présentes dans chaque utterance, et introduisons une tâche auxiliaire : la détection du nombre d'intentions (Intent Number Detection, IND). Par ailleurs, nous proposons un classificateur multi-intentions sans seuil qui exploite la sortie de la tâche IND afin de détecter les multiples intentions sans dépendre d'un seuil prédéfini. Des expériences étendues montrent que notre modèle obtient des résultats supérieurs sur deux jeux de données publics de NLU multi-intentions.