Reading Comprehension On Muserc
Métriques
Average F1
EM
Résultats
Résultats de performance de divers modèles sur ce benchmark
Tableau comparatif
Nom du modèle | Average F1 | EM |
---|---|---|
russiansuperglue-a-russian-language | 0.587 | 0.242 |
russiansuperglue-a-russian-language | 0.806 | 0.42 |
Modèle 3 | 0.687 | 0.278 |
Modèle 4 | 0.76 | 0.427 |
unreasonable-effectiveness-of-rule-based | 0.45 | 0.071 |
Modèle 6 | 0.769 | 0.446 |
Modèle 7 | 0.646 | 0.327 |
mt5-a-massively-multilingual-pre-trained-text | 0.844 | 0.543 |
Modèle 9 | 0.83 | 0.561 |
Modèle 10 | 0.742 | 0.399 |
Modèle 11 | 0.729 | 0.333 |
Modèle 12 | 0.673 | 0.364 |
Modèle 13 | 0.706 | 0.308 |
Modèle 14 | 0.642 | 0.319 |
Modèle 15 | 0.941 | 0.819 |
Modèle 16 | 0.639 | 0.239 |
Modèle 17 | 0.815 | 0.537 |
Modèle 18 | 0.653 | 0.221 |
unreasonable-effectiveness-of-rule-based | 0.671 | 0.237 |
Modèle 20 | 0.74 | 0.546 |
unreasonable-effectiveness-of-rule-based | 0.0 | 0.0 |
Modèle 22 | 0.711 | 0.324 |