Question Answering On Danetqa
評価指標
Accuracy
評価結果
このベンチマークにおける各モデルのパフォーマンス結果
比較表
モデル名 | Accuracy |
---|---|
russiansuperglue-a-russian-language | 0.915 |
モデル 2 | 0.624 |
モデル 3 | 0.82 |
mt5-a-massively-multilingual-pre-trained-text | 0.657 |
unreasonable-effectiveness-of-rule-based | 0.503 |
モデル 6 | 0.634 |
モデル 7 | 0.639 |
モデル 8 | 0.61 |
モデル 9 | 0.773 |
russiansuperglue-a-russian-language | 0.621 |
モデル 11 | 0.637 |
モデル 12 | 0.711 |
unreasonable-effectiveness-of-rule-based | 0.52 |
モデル 14 | 0.59 |
モデル 15 | 0.606 |
モデル 16 | 0.697 |
モデル 17 | 0.917 |
モデル 18 | 0.604 |
モデル 19 | 0.675 |
モデル 20 | 0.732 |
モデル 21 | 0.712 |
unreasonable-effectiveness-of-rule-based | 0.642 |