
摘要
研究表明,命名实体识别(Named Entity Recognition, NER)可以通过融合依存句法树所捕捉的长距离结构信息而获益。我们认为,这是因为线性序列所蕴含的上下文信息与依存树所表达的结构化信息之间具有互补性。然而,现有方法大多采用将循环神经网络(如LSTM)与图神经网络(如图卷积网络GCN)堆叠的方式构建改进的NER模型,其两种特征之间的具体交互机制不够明确,且性能提升并不显著。针对这一问题,本文提出了一种简单而稳健的解决方案——协同LSTM(Synergized-LSTM, Syn-LSTM),能够清晰地建模两类特征之间的交互关系。我们在四种语言的多个标准数据集上进行了大量实验,结果表明,所提出的模型在性能上优于以往方法,同时所需参数更少。进一步分析显示,相较于强基线模型,我们的方法能够更有效地捕捉更长距离的依赖关系。