
摘要
尽管神经机器翻译(NMT)在标准基准测试中取得了近期的成功,但缺乏大规模平行语料库对许多语言对而言仍是一个主要的实际问题。已有若干建议通过三角化和半监督学习技术来缓解这一问题,但这些方法仍然需要强大的跨语言信号。在这项工作中,我们完全消除了对平行数据的需求,并提出了一种全新的方法,可以在完全无监督的情况下训练神经机器翻译系统,仅依赖单语语料库。我们的模型基于最近关于无监督嵌入映射的研究工作,由一个稍作修改的注意力编码器-解码器模型组成,该模型可以通过去噪和回译的组合在单语语料库上进行训练。尽管这种方法相对简单,但我们的系统在WMT 2014法英和德英翻译任务中分别获得了15.56和10.21的BLEU分数。此外,该模型还可以从少量平行语料库中获益,在结合10万句平行句子时,分别达到了21.81和15.24的BLEU分数。我们的实现已作为开源项目发布。