
摘要
传统的深度自然语言生成(Deep NLG)方法通常采用流水线式架构,包含构建句法输入、预测功能词、句法输入线性化以及生成表面形式等多个阶段。尽管这类方法更易于理解与可视化,但其存在错误传播的问题,且各模块之间无法充分共享跨模块的信息。为此,我们构建了一种基于转移(transition-based)的模型,能够联合完成线性化、功能词预测与形态生成任务,相较于流水线基线系统显著提升了生成准确性。在一项标准的深度输入线性化共享任务中,我们的系统取得了迄今报道的最佳性能。
传统的深度自然语言生成(Deep NLG)方法通常采用流水线式架构,包含构建句法输入、预测功能词、句法输入线性化以及生成表面形式等多个阶段。尽管这类方法更易于理解与可视化,但其存在错误传播的问题,且各模块之间无法充分共享跨模块的信息。为此,我们构建了一种基于转移(transition-based)的模型,能够联合完成线性化、功能词预测与形态生成任务,相较于流水线基线系统显著提升了生成准确性。在一项标准的深度输入线性化共享任务中,我们的系统取得了迄今报道的最佳性能。