HyperAIHyperAI

Command Palette

Search for a command to run...

RAAT:关系增强注意力Transformer在文档级事件抽取中的关系建模

Yuan Liang Zhuoxuan Jiang Di Yin Bo Ren

摘要

在文档级事件抽取(Document-level Event Extraction, DEE)任务中,事件参数通常分散在多个句子中(跨句问题),并且一个文档中可能存在多个事件(多事件问题)。本文认为,事件参数之间的关系信息对于解决上述两个问题具有重要意义,并提出了一种新的DEE框架,该框架能够建模关系依赖,称为关系增强型文档级事件抽取(Relation-augmented Document-level Event Extraction, ReDEE)。具体而言,该框架引入了一种新颖且定制的 Transformer 模型,命名为关系增强型注意力 Transformer (Relation-augmented Attention Transformer, RAAT)。RAAT 可以扩展以捕捉多尺度和多数量的参数关系。为了进一步利用关系信息,我们引入了一个独立的事件关系预测任务,并采用了多任务学习方法来明确提升事件抽取性能。广泛的实验表明了所提方法的有效性,其在两个公开数据集上均能实现最先进的性能。我们的代码可在 https://github.com/TencentYoutuResearch/RAAT 获取。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供