
摘要
当前大多数共指消解系统采用在可能的文本片段上进行搜索的算法来识别提及项并解决共指关系。本文提出一种全新的共指消解系统,采用文本到文本(seq2seq)范式,联合预测提及项及其之间的链接关系。我们将该系统实现为一个转移系统(transition system),并以多语言T5作为底层语言模型。在仅使用CoNLL数据进行训练的情况下,我们在CoNLL-2012数据集上取得了当前最优的性能:英语的F1得分为83.3,较此前工作(Dobrovolskii, 2021)提升了2.3;阿拉伯语F1得分为68.5,提升4.1;中文F1得分为74.3,提升5.3。此外,我们还利用SemEval-2010数据集在零样本(zero-shot)、少样本(few-shot)以及全监督(supervised)三种设置下进行了实验。在零样本设置中,我们的方法在四种语言中的三种上显著优于先前方法,而在全监督设置下,对五种测试语言的性能均显著超越了此前的最先进水平。