
摘要
我们提出了一种多任务、概率化的方法,通过拉近包含相同知识库(Knowledge Base)实体对的句子表示,以促进远程监督关系抽取。为此,我们采用变分自编码器(Variational Autoencoder, VAE)对句子的隐空间进行偏置,并将其与关系分类器联合训练。该隐变量编码引导实体对的表示,并影响句子的重建过程。在两种通过远程监督构建的数据集上的实验结果表明,多任务学习带来了性能提升。进一步探索将知识库先验信息引入VAE的过程发现,该方法可使句子表示空间向知识库表示空间靠拢,不仅增强了模型的可解释性,还进一步提升了抽取效果。