HyperAIHyperAI

Command Palette

Search for a command to run...

基于实体感知自注意力和相对位置标签的异构图融合阅读理解模型

Shima Foolad Kourosh Kiani*

摘要

尽管 Transformer 模型在机器阅读理解任务中取得了显著进展,但在处理复杂推理任务时仍存在不足,主要原因是输入序列中缺乏显式知识。为了解决这一局限性,许多近期的研究提出了将外部知识注入模型的方法。然而,选择相关外部知识、确保其可用性以及需要额外的处理步骤仍然是挑战。本文介绍了一种新颖的注意力模式,该模式无需依赖外部知识即可将从异构图中提取的推理知识整合到 Transformer 架构中。所提出的注意力模式包含三个关键要素:针对单词标记的全局-局部注意力、针对实体标记的图注意力(该注意力对图中连接的标记表现出强烈的关注,而对未连接的标记则不然),以及考虑每个实体标记与单词标记之间的关系类型。如果两者之间存在关系,则可以实现优化的注意力分配。该模式结合了特殊的相对位置标签,使其能够与LUKE的实体感知自注意力机制相融合。实验结果证实,我们的模型在两个不同的数据集上均优于最先进的LUKE-Graph模型和基线LUKE模型:ReCoRD数据集强调常识推理,而WikiHop数据集则专注于多跳推理挑战。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供