Unsupervised Machine Translation On Wmt2016 2
평가 지표
BLEU
평가 결과
이 벤치마크에서 각 모델의 성능 결과
비교 표
모델 이름 | BLEU |
---|---|
language-models-are-few-shot-learners | 21 |
cross-lingual-language-model-pretraining | 33.3 |
mass-masked-sequence-to-sequence-pre-training | 35.2 |
이 벤치마크에서 각 모델의 성능 결과
모델 이름 | BLEU |
---|---|
language-models-are-few-shot-learners | 21 |
cross-lingual-language-model-pretraining | 33.3 |
mass-masked-sequence-to-sequence-pre-training | 35.2 |