
摘要
从网络、文档或其他来源自动获取的大规模平行语料库通常包含许多损坏的部分,这些部分必然会负面影响从这些语料库中学习的系统和模型的质量。本文描述了数据中常见的问题以及这些问题如何影响神经机器翻译系统,并介绍了识别和处理这些问题的方法。解决方案汇总为一组脚本,用于从输入语料库中移除有问题的句子。
从网络、文档或其他来源自动获取的大规模平行语料库通常包含许多损坏的部分,这些部分必然会负面影响从这些语料库中学习的系统和模型的质量。本文描述了数据中常见的问题以及这些问题如何影响神经机器翻译系统,并介绍了识别和处理这些问题的方法。解决方案汇总为一组脚本,用于从输入语料库中移除有问题的句子。