HyperAI超神経

Natural Language Inference On Terra

評価指標

Accuracy

評価結果

このベンチマークにおける各モデルのパフォーマンス結果

比較表
モデル名Accuracy
モデル 10.605
モデル 20.488
モデル 30.617
モデル 40.703
モデル 50.637
モデル 60.642
mt5-a-massively-multilingual-pre-trained-text0.561
モデル 80.573
unreasonable-effectiveness-of-rule-based0.483
モデル 100.704
モデル 110.637
モデル 120.871
モデル 130.64
モデル 140.801
モデル 150.747
unreasonable-effectiveness-of-rule-based0.549
モデル 170.692
russiansuperglue-a-russian-language0.92
unreasonable-effectiveness-of-rule-based0.513
モデル 200.654
モデル 210.505
russiansuperglue-a-russian-language0.471