
摘要
多意图语音语言理解(Multi-Intent Spoken Language Understanding, SLU)作为一种新兴且更为复杂的SLU场景,正受到越来越多的关注。与传统SLU不同,该场景中每个意图均具有特定的作用范围,而范围之外的语义信息甚至会干扰意图识别,极大地增加了意图检测的难度。更为严重的是,若基于这些不准确的意图标签进行槽位填充(slot filling),将引发错误传播问题,导致整体性能不理想。为应对上述挑战,本文提出一种基于Transformer架构的新型范围感知结果注意力网络(Scope-Sensitive Result Attention Network, SSRAN),该模型包含两个核心组件:范围识别器(Scope Recognizer, SR)和结果注意力网络(Result Attention Network, RAN)。其中,范围识别器为每个词元(token)分配范围信息,有效抑制了范围外词元带来的干扰;结果注意力网络则充分利用槽位填充结果与意图检测结果之间的双向交互,显著缓解了错误传播问题。在两个公开数据集上的实验结果表明,与当前最先进的基线模型相比,本文提出的SSRAN模型在整体准确率上分别提升了5.4%和2.1%,显著提升了多意图语音语言理解的性能。