17 天前

基于两步法对Bert进行微调以应用于DocRED任务

Hong Wang, Christfried Focke, Rob Sylvester, Nilesh Mishra, William Wang
基于两步法对Bert进行微调以应用于DocRED任务
摘要

近年来,建模多个实体之间的关系引起了越来越多的关注。为加速文档级别关系抽取的研究,研究人员构建了一个名为DocRED的新数据集。当前该任务的基线方法通常采用BiLSTM对整个文档进行编码,并从零开始训练。我们认为,此类简单基线模型不足以充分捕捉实体之间复杂的交互关系。本文中,我们进一步引入预训练语言模型(BERT)以构建更强的基线模型。此外,我们发现采用分阶段的方法可进一步提升性能:第一阶段预测两个实体之间是否存在关系,第二阶段则进一步预测具体的关系类型。

基于两步法对Bert进行微调以应用于DocRED任务 | 最新论文 | HyperAI超神经