11 天前
ERNIE-M:通过单语语料库对齐跨语言语义以增强多语言表示
Xuan Ouyang, Shuohuan Wang, Chao Pang, Yu Sun, Hao Tian, Hua Wu, Haifeng Wang

摘要
近期研究表明,预训练的跨语言模型在下游跨语言任务中取得了令人瞩目的性能表现。这一进步得益于模型对大规模单语语料和双语语料的学习。尽管普遍认为双语语料对提升模型性能至关重要,但现有方法往往受限于双语语料的规模,尤其是在低资源语言场景下。本文提出了一种名为ERNIE-M的新训练方法,通过利用单语语料促进多语言表示的对齐,以突破双语语料规模对模型性能的制约。我们的核心思想是将回译(back-translation)机制融入预训练过程:在单语语料上生成伪双语句子对,从而实现不同语言间语义层面的对齐,进一步增强跨语言模型的语义建模能力。实验结果表明,ERNIE-M显著优于现有的跨语言模型,并在多种跨语言下游任务中取得了新的最先进(SOTA)性能。