HyperAI

Natural Language Inference On Rcb

Métriques

Accuracy
Average F1

Résultats

Résultats de performance de divers modèles sur ce benchmark

Tableau comparatif
Nom du modèleAccuracyAverage F1
Modèle 10.4180.302
Modèle 20.5180.357
Modèle 30.5460.406
Modèle 40.4630.367
Modèle 50.4980.306
russiansuperglue-a-russian-language0.7020.68
Modèle 70.5090.333
Modèle 8 0.4840.417
Modèle 90.4730.356
Modèle 100.4470.408
Modèle 110.4520.371
Modèle 120.4450.367
mt5-a-massively-multilingual-pre-trained-text0.4540.366
Modèle 140.50.356
Modèle 150.4860.351
Modèle 160.4680.307
unreasonable-effectiveness-of-rule-based0.4380.4
unreasonable-effectiveness-of-rule-based0.3740.319
Modèle 190.4610.372
Modèle 200.4840.452
russiansuperglue-a-russian-language0.4410.301
unreasonable-effectiveness-of-rule-based0.4840.217