Common Sense Reasoning On Rwsd
Métriques
Accuracy
Résultats
Résultats de performance de divers modèles sur ce benchmark
Tableau comparatif
Nom du modèle | Accuracy |
---|---|
Modèle 1 | 0.669 |
Modèle 2 | 0.571 |
Modèle 3 | 0.669 |
russiansuperglue-a-russian-language | 0.662 |
russiansuperglue-a-russian-language | 0.84 |
Modèle 6 | 0.636 |
Modèle 7 | 0.649 |
Modèle 8 | 0.545 |
Modèle 9 | 0.669 |
Modèle 10 | 0.675 |
mt5-a-massively-multilingual-pre-trained-text | 0.669 |
Modèle 12 | 0.669 |
unreasonable-effectiveness-of-rule-based | 0.669 |
Modèle 14 | 0.669 |
unreasonable-effectiveness-of-rule-based | 0.597 |
Modèle 16 | 0.669 |
Modèle 17 | 0.662 |
Modèle 18 | 0.669 |
Modèle 19 | 0.669 |
unreasonable-effectiveness-of-rule-based | 0.669 |
Modèle 21 | 0.669 |
Modèle 22 | 0.669 |