Unsupervised Machine Translation On Wmt2016 3
評価指標
BLEU
評価結果
このベンチマークにおける各モデルのパフォーマンス結果
比較表
モデル名 | BLEU |
---|---|
language-models-are-few-shot-learners | 39.5 |
cross-lingual-language-model-pretraining | 31.8 |
mass-masked-sequence-to-sequence-pre-training | 33.1 |
このベンチマークにおける各モデルのパフォーマンス結果
モデル名 | BLEU |
---|---|
language-models-are-few-shot-learners | 39.5 |
cross-lingual-language-model-pretraining | 31.8 |
mass-masked-sequence-to-sequence-pre-training | 33.1 |