11 天前

一统双端:无需复杂流水线的对称AMR语义解析与生成

{Roberto Navigli, Rexhina Blloshmi, Michele Bevilacqua}
摘要

在文本到AMR(Abstract Meaning Representation)的解析任务中,当前最先进的语义解析器通常依赖于复杂的流水线结构,整合多个不同的模块或组件,并采用图重新分类(graph recategorization)技术——即基于训练数据集设计的一系列与内容相关的启发式规则。然而,这种图重新分类技术在分布外(out-of-distribution)场景下的泛化能力尚不明确。相比之下,当前最先进的AMR到文本生成任务(可视为解析的逆过程)则基于更为简洁的序列到序列(seq2seq)框架。本文将文本到AMR解析与AMR到文本生成统一为一种对称的转换任务(symmetric transduction task),并证明:通过精心设计的图结构线性化方法,并对预训练的编码器-解码器模型进行扩展,仅使用统一的seq2seq架构即可在两项任务上均达到当前最优性能,该方法称为SPRING(acl{spring})。我们的模型无需复杂的流水线结构,也不依赖于基于强假设构建的启发式规则。事实上,我们摒弃了图重新分类的必要性,实证表明该技术在标准基准之外反而会带来负面影响。最终,我们在英语AMR 2.0数据集上大幅超越了先前的最先进方法:在文本到AMR任务中,Smatch得分提升了3.6点;在AMR到文本生成任务中,BLEU得分领先于现有最优模型达11.2点。相关代码已开源,发布于:github.com/SapienzaNLP/spring。

一统双端:无需复杂流水线的对称AMR语义解析与生成 | 最新论文 | HyperAI超神经