Machine Translation On Wmt 2017 Latvian
평가 지표
BLEU
평가 결과
이 벤치마크에서 각 모델의 성능 결과
비교 표
모델 이름 | BLEU |
---|---|
impact-of-corpora-quality-on-neural-machine | 24.37 |
tildes-machine-translation-systems-for-wmt-1 | 20.80 |
confidence-through-attention | 14.83 |
debugging-neural-machine-translations | - |