Machine Translation On Wmt2014 French English
Metriken
BLEU score
Ergebnisse
Leistungsergebnisse verschiedener Modelle zu diesem Benchmark
Vergleichstabelle
Modellname | BLEU score |
---|---|
unsupervised-statistical-machine-translation | 25.87 |
finetuned-language-models-are-zero-shot | 37.9 |
finetuned-language-models-are-zero-shot | 35.9 |