
摘要
近期研究表明,在语义角色标注(Semantic Role Labeling, SRL)任务中引入句法知识能够显著提升模型性能。本文提出一种新型的语法感知图到图变换器模型(Syntax-aware Graph-to-Graph Transformer, SynG2G-Tr),该模型通过一种创新方式,将句法结构以图关系嵌入的形式直接输入Transformer的自注意力机制中。该方法在引导注意力模式遵循句法结构的同时,仍允许模型灵活学习替代性的模式。我们在基于跨度(span-based)和基于依存关系(dependency-based)的SRL数据集上对模型进行了评估,结果表明,无论是在领域内(in-domain)还是领域外(out-of-domain)设置下,SynG2G-Tr在CoNLL 2005和CoNLL 2009数据集上均优于以往的各类方法。