HyperAIHyperAI

Command Palette

Search for a command to run...

基于相对位置建模图结构以从知识图谱生成文本

Martin Schmitt Leonardo F. R. Ribeiro Philipp Dufter Iryna Gurevych Hinrich Schütze

摘要

我们提出了一种名为Graformer的新颖基于Transformer的编码器-解码器架构,用于图到文本生成。通过我们创新的图自注意力机制,节点的编码不仅依赖于直接邻接的节点,而是依赖于输入图中的所有节点,从而有助于检测全局模式。我们将两个节点之间的关系表示为它们之间最短路径的长度。Graformer学习在不同的注意力头中对这些节点-节点关系赋予不同的权重,从而实际上学会了输入图的不同连接视图。我们在两个流行的图到文本生成基准数据集AGENDA和WebNLG上评估了Graformer,在使用远少于其他方法的参数的情况下,它表现出强大的性能。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于相对位置建模图结构以从知识图谱生成文本 | 论文 | HyperAI超神经