
摘要
现有的机器翻译系统,无论是基于短语的还是神经网络的,几乎完全依赖于显式分词的词汇级建模。在本文中,我们提出一个基本问题:神经机器翻译能否在没有任何显式分词的情况下生成字符序列?为回答这一问题,我们在四个语言对(En-Cs、En-De、En-Ru 和 En-Fi)上评估了一种基于注意力机制的编码器-解码器模型,该模型使用了子词级编码器和字符级解码器,并采用了WMT'15提供的平行语料库。实验结果表明,在所有四个语言对中,使用字符级解码器的模型均优于使用子词级解码器的模型。此外,在En-Cs、En-De 和 En-Fi 语言对上,使用字符级解码器的神经模型集成表现优于最先进的非神经机器翻译系统;而在 En-Ru 语言对上,则表现出相当的性能。