
摘要
多意图自然语言理解(Multi-intent Natural Language Understanding, NLU)近年来受到广泛关注。该技术旨在识别话语中的多个意图,更契合真实应用场景。然而,当前主流的联合多意图NLU模型主要依赖阈值策略来检测多个意图,由此带来一个显著问题:模型对阈值设定极为敏感。为此,本文提出一种基于Transformer的无阈值多意图NLU模型(Threshold-Free Multi-intent NLU, TFMN),并引入多任务学习(Multi-Task Learning, MTL)框架。具体而言,我们首先利用基于Transformer的编码器多层结构,生成多层次粒度的语义表示;随后,我们不依赖额外的人工标注,直接利用话语中意图数量的信息,提出一个辅助任务——意图数量检测(Intent Number Detection, IND);进一步地,我们设计了一种无阈值的多意图分类器,该分类器基于IND任务的输出,实现多意图识别而无需依赖人工设定的阈值。大量实验结果表明,所提出的模型在两个公开的多意图数据集上均取得了优异性能,显著优于现有方法。