Natural Language Inference On Rcb
평가 지표
Accuracy
Average F1
평가 결과
이 벤치마크에서 각 모델의 성능 결과
비교 표
모델 이름 | Accuracy | Average F1 |
---|---|---|
모델 1 | 0.418 | 0.302 |
모델 2 | 0.518 | 0.357 |
모델 3 | 0.546 | 0.406 |
모델 4 | 0.463 | 0.367 |
모델 5 | 0.498 | 0.306 |
russiansuperglue-a-russian-language | 0.702 | 0.68 |
모델 7 | 0.509 | 0.333 |
모델 8 | 0.484 | 0.417 |
모델 9 | 0.473 | 0.356 |
모델 10 | 0.447 | 0.408 |
모델 11 | 0.452 | 0.371 |
모델 12 | 0.445 | 0.367 |
mt5-a-massively-multilingual-pre-trained-text | 0.454 | 0.366 |
모델 14 | 0.5 | 0.356 |
모델 15 | 0.486 | 0.351 |
모델 16 | 0.468 | 0.307 |
unreasonable-effectiveness-of-rule-based | 0.438 | 0.4 |
unreasonable-effectiveness-of-rule-based | 0.374 | 0.319 |
모델 19 | 0.461 | 0.372 |
모델 20 | 0.484 | 0.452 |
russiansuperglue-a-russian-language | 0.441 | 0.301 |
unreasonable-effectiveness-of-rule-based | 0.484 | 0.217 |