
摘要
注意力模型已被广泛研究以改进自然语言处理(NLP)任务,例如通过问题感知段落注意力模型和自匹配注意力模型来提高机器阅读理解能力。我们的研究提出了两种有意义的方法来改进注意力模型中的相位导引器(PhaseCond)。首先,相位导引器是一种多层注意力模型架构,由多个阶段组成,每个阶段实现了一组注意力层以生成段落表示,并且包含一组内部或外部融合层来调节信息流。其次,我们扩展并改进了点积注意力函数,以便在相位导引器中同时从不同角度编码多个问题和段落嵌入层。我们在SQuAD数据集上展示了所提出的相位导引器模型的有效性,结果表明该模型显著优于现有的单层和多层注意力模型。我们通过详细的定性分析和可视化的示例进一步深化了这些结果,展示了多层注意力模型中的动态变化过程。