HyperAI

Natural Language Inference On Terra

Métriques

Accuracy

Résultats

Résultats de performance de divers modèles sur ce benchmark

Tableau comparatif
Nom du modèleAccuracy
Modèle 10.605
Modèle 20.488
Modèle 30.617
Modèle 40.703
Modèle 50.637
Modèle 60.642
mt5-a-massively-multilingual-pre-trained-text0.561
Modèle 80.573
unreasonable-effectiveness-of-rule-based0.483
Modèle 100.704
Modèle 110.637
Modèle 120.871
Modèle 130.64
Modèle 140.801
Modèle 150.747
unreasonable-effectiveness-of-rule-based0.549
Modèle 170.692
russiansuperglue-a-russian-language0.92
unreasonable-effectiveness-of-rule-based0.513
Modèle 200.654
Modèle 210.505
russiansuperglue-a-russian-language0.471