
摘要
我们提出了一种基于ROT-$k$密文的新型神经机器翻译数据增强技术。ROT-$k$是一种简单的字母替换密码,其将明文中的每个字母替换为字母表中其后第$k$个字母。我们首先对平行语料库的源端文本(即明文)使用不同的$k$值生成多个ROT-$k$密文。随后,通过多源训练方式,将这些加密后的训练数据与原始平行数据联合使用,以提升神经机器翻译性能。我们提出的方法——CipherDAug,采用受协同正则化启发的训练机制,仅依赖原始训练数据,无需额外数据源,且基于标准Transformer架构,在多个数据集上显著优于现有的强效数据增强方法。该技术可轻松与现有数据增强方法结合,并在低资源场景下展现出尤为突出的性能。