11 天前

SPECTER:基于引文信息的Transformer文档级表示学习

Arman Cohan, Sergey Feldman, Iz Beltagy, Doug Downey, Daniel S. Weld
SPECTER:基于引文信息的Transformer文档级表示学习
摘要

表示学习是自然语言处理系统中的关键组成部分。近年来,像BERT这样的Transformer语言模型能够学习到强大的文本表示,但这些模型主要针对词元级和句子级的训练目标,未能充分利用文档之间的关联性信息,从而限制了其在文档级表示上的能力。在科学文献的分类、推荐等应用中,高质量的嵌入表示能够显著提升下游任务的性能。为此,我们提出SPECTER——一种基于预训练Transformer语言模型的新方法,通过利用文档级关联性的强大信号——引文图(citation graph)来生成科学文献的文档级嵌入。与现有的预训练语言模型不同,SPECTER无需针对特定任务进行微调,即可直接应用于下游任务。此外,为推动文档级模型的进一步研究,我们引入了SciDocs,一个包含七个文档级任务的新评估基准,涵盖引文预测、文档分类与推荐等任务。实验结果表明,SPECTER在该基准上显著优于多种竞争性基线方法。