HyperAI초신경

Natural Language Inference On Rcb

평가 지표

Accuracy
Average F1

평가 결과

이 벤치마크에서 각 모델의 성능 결과

비교 표
모델 이름AccuracyAverage F1
모델 10.4180.302
모델 20.5180.357
모델 30.5460.406
모델 40.4630.367
모델 50.4980.306
russiansuperglue-a-russian-language0.7020.68
모델 70.5090.333
모델 8 0.4840.417
모델 90.4730.356
모델 100.4470.408
모델 110.4520.371
모델 120.4450.367
mt5-a-massively-multilingual-pre-trained-text0.4540.366
모델 140.50.356
모델 150.4860.351
모델 160.4680.307
unreasonable-effectiveness-of-rule-based0.4380.4
unreasonable-effectiveness-of-rule-based0.3740.319
모델 190.4610.372
모델 200.4840.452
russiansuperglue-a-russian-language0.4410.301
unreasonable-effectiveness-of-rule-based0.4840.217