Question Answering On Danetqa
Métriques
Accuracy
Résultats
Résultats de performance de divers modèles sur ce benchmark
Tableau comparatif
Nom du modèle | Accuracy |
---|---|
russiansuperglue-a-russian-language | 0.915 |
Modèle 2 | 0.624 |
Modèle 3 | 0.82 |
mt5-a-massively-multilingual-pre-trained-text | 0.657 |
unreasonable-effectiveness-of-rule-based | 0.503 |
Modèle 6 | 0.634 |
Modèle 7 | 0.639 |
Modèle 8 | 0.61 |
Modèle 9 | 0.773 |
russiansuperglue-a-russian-language | 0.621 |
Modèle 11 | 0.637 |
Modèle 12 | 0.711 |
unreasonable-effectiveness-of-rule-based | 0.52 |
Modèle 14 | 0.59 |
Modèle 15 | 0.606 |
Modèle 16 | 0.697 |
Modèle 17 | 0.917 |
Modèle 18 | 0.604 |
Modèle 19 | 0.675 |
Modèle 20 | 0.732 |
Modèle 21 | 0.712 |
unreasonable-effectiveness-of-rule-based | 0.642 |