
摘要
我们提出了一种新的学习语义表示的技术,该技术将分布假设扩展到多语言数据和联合空间嵌入。我们的模型利用平行数据,学习将语义等价句子的嵌入进行强对齐,同时保持不同句子嵌入之间的足够距离。这些模型不依赖于词对齐或任何句法信息,并成功应用于多种不同的语言。此外,我们将这种方法扩展到文档级别的语义表示学习。我们在两个跨语言文档分类任务上评估了这些模型,结果表明其性能优于先前的最先进方法。通过定性分析和研究中转效应(pivoting effects),我们证明了我们的表示在语义上是合理的,并且能够在没有平行数据的情况下捕捉跨语言的语义关系。