Natural Language Inference On Rcb
Métriques
Accuracy
Average F1
Résultats
Résultats de performance de divers modèles sur ce benchmark
Tableau comparatif
Nom du modèle | Accuracy | Average F1 |
---|---|---|
Modèle 1 | 0.418 | 0.302 |
Modèle 2 | 0.518 | 0.357 |
Modèle 3 | 0.546 | 0.406 |
Modèle 4 | 0.463 | 0.367 |
Modèle 5 | 0.498 | 0.306 |
russiansuperglue-a-russian-language | 0.702 | 0.68 |
Modèle 7 | 0.509 | 0.333 |
Modèle 8 | 0.484 | 0.417 |
Modèle 9 | 0.473 | 0.356 |
Modèle 10 | 0.447 | 0.408 |
Modèle 11 | 0.452 | 0.371 |
Modèle 12 | 0.445 | 0.367 |
mt5-a-massively-multilingual-pre-trained-text | 0.454 | 0.366 |
Modèle 14 | 0.5 | 0.356 |
Modèle 15 | 0.486 | 0.351 |
Modèle 16 | 0.468 | 0.307 |
unreasonable-effectiveness-of-rule-based | 0.438 | 0.4 |
unreasonable-effectiveness-of-rule-based | 0.374 | 0.319 |
Modèle 19 | 0.461 | 0.372 |
Modèle 20 | 0.484 | 0.452 |
russiansuperglue-a-russian-language | 0.441 | 0.301 |
unreasonable-effectiveness-of-rule-based | 0.484 | 0.217 |