Natural Language Inference On Rcb
评估指标
Accuracy
Average F1
评测结果
各个模型在此基准测试上的表现结果
比较表格
模型名称 | Accuracy | Average F1 |
---|---|---|
模型 1 | 0.418 | 0.302 |
模型 2 | 0.518 | 0.357 |
模型 3 | 0.546 | 0.406 |
模型 4 | 0.463 | 0.367 |
模型 5 | 0.498 | 0.306 |
russiansuperglue-a-russian-language | 0.702 | 0.68 |
模型 7 | 0.509 | 0.333 |
模型 8 | 0.484 | 0.417 |
模型 9 | 0.473 | 0.356 |
模型 10 | 0.447 | 0.408 |
模型 11 | 0.452 | 0.371 |
模型 12 | 0.445 | 0.367 |
mt5-a-massively-multilingual-pre-trained-text | 0.454 | 0.366 |
模型 14 | 0.5 | 0.356 |
模型 15 | 0.486 | 0.351 |
模型 16 | 0.468 | 0.307 |
unreasonable-effectiveness-of-rule-based | 0.438 | 0.4 |
unreasonable-effectiveness-of-rule-based | 0.374 | 0.319 |
模型 19 | 0.461 | 0.372 |
模型 20 | 0.484 | 0.452 |
russiansuperglue-a-russian-language | 0.441 | 0.301 |
unreasonable-effectiveness-of-rule-based | 0.484 | 0.217 |