HyperAI

Question Answering On Danetqa

Métriques

Accuracy

Résultats

Résultats de performance de divers modèles sur ce benchmark

Tableau comparatif
Nom du modèleAccuracy
russiansuperglue-a-russian-language0.915
Modèle 20.624
Modèle 30.82
mt5-a-massively-multilingual-pre-trained-text0.657
unreasonable-effectiveness-of-rule-based0.503
Modèle 60.634
Modèle 70.639
Modèle 80.61
Modèle 90.773
russiansuperglue-a-russian-language0.621
Modèle 110.637
Modèle 120.711
unreasonable-effectiveness-of-rule-based0.52
Modèle 140.59
Modèle 150.606
Modèle 160.697
Modèle 170.917
Modèle 180.604
Modèle 190.675
Modèle 200.732
Modèle 210.712
unreasonable-effectiveness-of-rule-based0.642