Machine Translation On Wmt2014 French English
Métriques
BLEU score
Résultats
Résultats de performance de divers modèles sur ce benchmark
Tableau comparatif
Nom du modèle | BLEU score |
---|---|
unsupervised-statistical-machine-translation | 25.87 |
finetuned-language-models-are-zero-shot | 37.9 |
finetuned-language-models-are-zero-shot | 35.9 |