2 个月前

注意力增强的序列推理模型

Guanyu Li; Pengfei Zhang; Caiyan Jia
注意力增强的序列推理模型
摘要

注意力机制在自然语言处理中已被证明是有效的。本文提出了一种增强型自然语言推理模型,命名为aESIM,通过在传统双向长短期记忆(Bi-LSTM)层中加入词注意力机制和自适应方向性注意力机制,使得该推理模型aESIM能够有效学习词的表示,并对前提句和假设句之间的局部子句推理进行建模。在SNLI、MultiNLI和Quora基准数据集上的实证研究显示,aESIM优于原始的ESIM模型。