SLIM : Cartographie explicite des slots-intentions avec BERT pour la détection conjointe de multiples intentions et le remplissage de slots

La détection d’intention au niveau de l’énoncé et le remplissage de fentes au niveau des tokens constituent deux tâches clés pour la compréhension du langage naturel (NLU) dans les systèmes orientés vers une tâche. La plupart des approches existantes supposent qu’un énoncé ne contient qu’une seule intention. Toutefois, dans des scénarios réels, un énoncé peut souvent contenir plusieurs intentions. Dans cet article, nous proposons un cadre NLU multi-intentions, appelé SLIM, qui apprend conjointement la détection multi-intentions et le remplissage de fentes à partir de BERT. Afin d’exploiter pleinement les données d’annotation existantes et de capturer les interactions entre les fentes et les intentions, SLIM introduit un classificateur explicite fente-intention afin d’apprendre la correspondance many-to-one entre les fentes et les intentions. Les résultats expérimentaux sur trois jeux de données publics multi-intentions démontrent (1) une performance supérieure de SLIM par rapport aux méthodes les plus avancées actuelles pour la NLU à intentions multiples, et (2) les bénéfices apportés par le classificateur fente-intention.