
摘要
近年来,字符-词格结构(character-word lattice structure)已被证明在中文命名实体识别(NER)任务中具有有效性,其通过融合词级信息提升了模型性能。然而,由于该格结构具有复杂且动态的特性,大多数基于格结构的现有模型难以充分利用GPU的并行计算能力,通常存在推理速度较低的问题。针对这一挑战,本文提出FLAT:一种面向中文NER的扁平化格结构Transformer模型(Flat-LAttice Transformer)。该模型将原有的格结构转换为由“跨度”(spans)构成的扁平化结构,每个跨度对应原始格结构中的一个字符或潜在词及其位置信息。借助Transformer的强大建模能力以及精心设计的位置编码机制,FLAT能够充分挖掘格结构中的语义信息,并具备优异的并行计算能力。在四个公开数据集上的实验结果表明,FLAT在性能与效率方面均优于现有的基于词典的模型。