Natural Language Inference On Kuake Qqr
평가 지표
Accuracy
평가 결과
이 벤치마크에서 각 모델의 성능 결과
모델 이름 | Accuracy | Paper Title | Repository |
---|---|---|---|
BERT-base | 84.7 | CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark |
0 of 1 row(s) selected.
이 벤치마크에서 각 모델의 성능 결과
모델 이름 | Accuracy | Paper Title | Repository |
---|---|---|---|
BERT-base | 84.7 | CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark |