Translation On Iwslt 2017
Métriques
BLEU
Résultats
Résultats de performance de divers modèles sur ce benchmark
Nom du modèle | BLEU | Paper Title | Repository |
---|---|---|---|
Llama 3 8B | 0.23539 | Hierarchical Prompting Taxonomy: A Universal Evaluation Framework for Large Language Models Aligned with Human Cognitive Principles | - |
0 of 1 row(s) selected.