HyperAI초신경

Natural Language Inference On Terra

평가 지표

Accuracy

평가 결과

이 벤치마크에서 각 모델의 성능 결과

비교 표
모델 이름Accuracy
모델 10.605
모델 20.488
모델 30.617
모델 40.703
모델 50.637
모델 60.642
mt5-a-massively-multilingual-pre-trained-text0.561
모델 80.573
unreasonable-effectiveness-of-rule-based0.483
모델 100.704
모델 110.637
모델 120.871
모델 130.64
모델 140.801
모델 150.747
unreasonable-effectiveness-of-rule-based0.549
모델 170.692
russiansuperglue-a-russian-language0.92
unreasonable-effectiveness-of-rule-based0.513
모델 200.654
모델 210.505
russiansuperglue-a-russian-language0.471