HyperAI초신경

Question Answering On Danetqa

평가 지표

Accuracy

평가 결과

이 벤치마크에서 각 모델의 성능 결과

비교 표
모델 이름Accuracy
russiansuperglue-a-russian-language0.915
모델 20.624
모델 30.82
mt5-a-massively-multilingual-pre-trained-text0.657
unreasonable-effectiveness-of-rule-based0.503
모델 60.634
모델 70.639
모델 80.61
모델 90.773
russiansuperglue-a-russian-language0.621
모델 110.637
모델 120.711
unreasonable-effectiveness-of-rule-based0.52
모델 140.59
모델 150.606
모델 160.697
모델 170.917
모델 180.604
모델 190.675
모델 200.732
모델 210.712
unreasonable-effectiveness-of-rule-based0.642