Natural Language Inference On Rcb
評価指標
Accuracy
Average F1
評価結果
このベンチマークにおける各モデルのパフォーマンス結果
比較表
モデル名 | Accuracy | Average F1 |
---|---|---|
モデル 1 | 0.418 | 0.302 |
モデル 2 | 0.518 | 0.357 |
モデル 3 | 0.546 | 0.406 |
モデル 4 | 0.463 | 0.367 |
モデル 5 | 0.498 | 0.306 |
russiansuperglue-a-russian-language | 0.702 | 0.68 |
モデル 7 | 0.509 | 0.333 |
モデル 8 | 0.484 | 0.417 |
モデル 9 | 0.473 | 0.356 |
モデル 10 | 0.447 | 0.408 |
モデル 11 | 0.452 | 0.371 |
モデル 12 | 0.445 | 0.367 |
mt5-a-massively-multilingual-pre-trained-text | 0.454 | 0.366 |
モデル 14 | 0.5 | 0.356 |
モデル 15 | 0.486 | 0.351 |
モデル 16 | 0.468 | 0.307 |
unreasonable-effectiveness-of-rule-based | 0.438 | 0.4 |
unreasonable-effectiveness-of-rule-based | 0.374 | 0.319 |
モデル 19 | 0.461 | 0.372 |
モデル 20 | 0.484 | 0.452 |
russiansuperglue-a-russian-language | 0.441 | 0.301 |
unreasonable-effectiveness-of-rule-based | 0.484 | 0.217 |