HyperAIHyperAI

Command Palette

Search for a command to run...

兼收并蓄:结合神经机器翻译的最新进展

摘要

过去一年见证了机器翻译(MT)领域中序列到序列(seq2seq)建模的迅速进展。传统的基于循环神经网络(RNN)的机器翻译方法首先被卷积序列到序列模型超越,随后又被最近提出的Transformer模型超越。这些新的方法每一种都包含了一种基本架构以及一系列原则上可以应用于其他序列到序列架构的建模和训练技术。在本文中,我们从两个方面对这些新架构及其伴随的技术进行了拆解分析。首先,我们识别出几种关键的建模和训练技术,并将其应用于RNN架构,从而得到了一个新的RNMT+模型,在WMT'14英语到法语和英语到德语的基准任务上超过了这三种基本架构。其次,我们分析了每种基本序列到序列架构的特性,并设计了新的混合架构,旨在结合它们的优势。我们的混合模型在两个基准数据集上取得了进一步的改进,表现优于RNMT+模型。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供