HyperAIHyperAI

Command Palette

Search for a command to run...

非自己回帰型ニューラル機械翻訳

Jiatao Gu†; James Bradbury‡, Caiming Xiong‡, Victor O.K. Li† & Richard Socher‡

概要

既存のニューラル機械翻訳アプローチでは、各出力単語が以前に生成された出力に基づいて決定されます。本稿では、この自己回帰特性を回避し、並列的に出力を生成するモデルを提案します。これにより、推論時の遅延が1桁低いレベルに抑えられます。知識蒸留(knowledge distillation)、入力トークンの肥沃度(fertility)を潜在変数として使用すること、および方策勾配微調整(policy gradient fine-tuning)を通じて、教師として使用される自己回帰トランスフォーマー・ネットワークに対して最大2.0 BLEUポイントの性能低下というコストでこれを実現しています。我々は、訓練戦略のこれら3つの側面それぞれに関連する累積的な改善を示し、IWSLT 2016英語-ドイツ語と2つのWMT言語ペアで当該手法を検証しました。推論時に肥沃度を並列的にサンプリングすることで、非自己回帰モデルはWMT 2016英語-ルーマニア語において近接最先端の性能である29.8 BLEUスコアを達成しました。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
非自己回帰型ニューラル機械翻訳 | 記事 | HyperAI超神経