Natural Language Inference On Lidirus
Métriques
MCC
Résultats
Résultats de performance de divers modèles sur ce benchmark
Tableau comparatif
Nom du modèle | MCC |
---|---|
Modèle 1 | 0.218 |
Modèle 2 | 0.209 |
Modèle 3 | 0.01 |
Modèle 4 | -0.013 |
Modèle 5 | 0.178 |
unreasonable-effectiveness-of-rule-based | 0 |
Modèle 7 | 0.096 |
unreasonable-effectiveness-of-rule-based | 0 |
mt5-a-massively-multilingual-pre-trained-text | 0.061 |
Modèle 10 | 0.231 |
Modèle 11 | 0.224 |
Modèle 12 | 0.124 |
Modèle 13 | 0.189 |
Modèle 14 | 0 |
unreasonable-effectiveness-of-rule-based | 0.147 |
Modèle 16 | 0.32 |
Modèle 17 | 0.267 |
Modèle 18 | 0.235 |
Modèle 19 | 0.191 |
Modèle 20 | 0.339 |
russiansuperglue-a-russian-language | 0.626 |
russiansuperglue-a-russian-language | 0.06 |