HyperAI초신경

Natural Language Inference On Lidirus

평가 지표

MCC

평가 결과

이 벤치마크에서 각 모델의 성능 결과

비교 표
모델 이름MCC
모델 10.218
모델 20.209
모델 30.01
모델 4-0.013
모델 50.178
unreasonable-effectiveness-of-rule-based0
모델 70.096
unreasonable-effectiveness-of-rule-based0
mt5-a-massively-multilingual-pre-trained-text0.061
모델 100.231
모델 110.224
모델 120.124
모델 130.189
모델 140
unreasonable-effectiveness-of-rule-based0.147
모델 160.32
모델 170.267
모델 180.235
모델 190.191
모델 200.339
russiansuperglue-a-russian-language0.626
russiansuperglue-a-russian-language0.06