
摘要
近期的研究提出了一些生成神经模型,用于句法分析,并取得了最先进的结果。由于在这些生成模型中直接搜索较为困难,因此它们主要被用来重新评分基础解析器产生的候选输出,而在基础解析器中解码则更为简单。首先,我们介绍了一种在这些生成模型中进行直接搜索的算法。接着,我们证明了重新评分的结果至少部分归因于隐式的模型组合,而不仅仅是重排序效应。最后,我们展示了显式的模型组合可以进一步提升性能,在仅使用黄金数据训练时,在PTB上的F1分数达到了94.25%,而在使用外部数据时,则达到了94.66%的新高。
近期的研究提出了一些生成神经模型,用于句法分析,并取得了最先进的结果。由于在这些生成模型中直接搜索较为困难,因此它们主要被用来重新评分基础解析器产生的候选输出,而在基础解析器中解码则更为简单。首先,我们介绍了一种在这些生成模型中进行直接搜索的算法。接着,我们证明了重新评分的结果至少部分归因于隐式的模型组合,而不仅仅是重排序效应。最后,我们展示了显式的模型组合可以进一步提升性能,在仅使用黄金数据训练时,在PTB上的F1分数达到了94.25%,而在使用外部数据时,则达到了94.66%的新高。