HyperAI

Reading Comprehension On Muserc

Métriques

Average F1
EM

Résultats

Résultats de performance de divers modèles sur ce benchmark

Tableau comparatif
Nom du modèleAverage F1EM
russiansuperglue-a-russian-language0.587 0.242
russiansuperglue-a-russian-language0.8060.42
Modèle 30.6870.278
Modèle 40.760.427
unreasonable-effectiveness-of-rule-based0.450.071
Modèle 60.7690.446
Modèle 70.6460.327
mt5-a-massively-multilingual-pre-trained-text0.8440.543
Modèle 90.830.561
Modèle 100.7420.399
Modèle 110.7290.333
Modèle 120.6730.364
Modèle 130.706 0.308
Modèle 140.6420.319
Modèle 150.9410.819
Modèle 160.639 0.239
Modèle 170.8150.537
Modèle 180.6530.221
unreasonable-effectiveness-of-rule-based0.6710.237
Modèle 200.740.546
unreasonable-effectiveness-of-rule-based0.0 0.0
Modèle 220.711 0.324