Natural Language Inference On Kuake Qqr
評価指標
Accuracy
評価結果
このベンチマークにおける各モデルのパフォーマンス結果
モデル名 | Accuracy | Paper Title | Repository |
---|---|---|---|
BERT-base | 84.7 | CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark |
0 of 1 row(s) selected.
このベンチマークにおける各モデルのパフォーマンス結果
モデル名 | Accuracy | Paper Title | Repository |
---|---|---|---|
BERT-base | 84.7 | CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark |