
摘要
关系分类是自然语言处理(NLP)中的一个重要任务,旨在提取实体之间的关系。目前最先进的关系分类方法主要基于卷积神经网络(Convolutional Neural Networks, CNN)或循环神经网络(Recurrent Neural Networks, RNN)。最近,预训练的BERT模型在许多自然语言处理分类和序列标注任务中取得了非常成功的成果。然而,关系分类与其他任务不同,它不仅依赖于句子的信息,还依赖于两个目标实体的信息。本文提出了一种结合预训练的BERT语言模型并整合目标实体信息的方法来解决关系分类任务。我们定位了目标实体,并通过预训练架构传递这些信息,同时将两个实体的相应编码纳入模型。实验结果表明,我们在SemEval-2010任务8的关系数据集上显著超越了现有最先进方法的表现。