11 天前
ATP:先AMR化再解析!利用伪AMR提升AMR解析性能
Liang Chen, Peiyi Wang, Runxin Xu, Tianyu Liu, Zhifang Sui, Baobao Chang

摘要
由于抽象语义表示(Abstract Meaning Representation, AMR)隐含地包含了复合的语义标注,我们假设在语义或形式上与AMR相关联的辅助任务,能够更有效地提升AMR解析性能。我们发现:1)语义角色标注(Semantic Role Labeling, SRL)和依存句法分析(Dependency Parsing, DP)在文本到AMR的转换任务中,相较于其他任务(如机器翻译和文本摘要),即使使用更少的数据,也能带来更大的性能提升;2)为了更好地适配AMR,辅助任务的数据在训练前应被适当“AMR化”为伪AMR(PseudoAMR)表示。通过结构转换,浅层解析任务所蕴含的知识能够更有效地迁移到AMR解析中;3)相较于多任务学习,中间任务学习(Intermediate-task Learning)是一种更优的引入辅助任务的范式。从实证角度出发,我们提出了一种系统化的方法,用于有效引入辅助任务以提升AMR解析性能。大量实验结果表明,该方法在多个基准测试上取得了新的最先进(state-of-the-art)性能,尤其在与图结构相关的评价指标上表现突出。