Natural Language Inference On Terra
Métriques
Accuracy
Résultats
Résultats de performance de divers modèles sur ce benchmark
Tableau comparatif
Nom du modèle | Accuracy |
---|---|
Modèle 1 | 0.605 |
Modèle 2 | 0.488 |
Modèle 3 | 0.617 |
Modèle 4 | 0.703 |
Modèle 5 | 0.637 |
Modèle 6 | 0.642 |
mt5-a-massively-multilingual-pre-trained-text | 0.561 |
Modèle 8 | 0.573 |
unreasonable-effectiveness-of-rule-based | 0.483 |
Modèle 10 | 0.704 |
Modèle 11 | 0.637 |
Modèle 12 | 0.871 |
Modèle 13 | 0.64 |
Modèle 14 | 0.801 |
Modèle 15 | 0.747 |
unreasonable-effectiveness-of-rule-based | 0.549 |
Modèle 17 | 0.692 |
russiansuperglue-a-russian-language | 0.92 |
unreasonable-effectiveness-of-rule-based | 0.513 |
Modèle 20 | 0.654 |
Modèle 21 | 0.505 |
russiansuperglue-a-russian-language | 0.471 |