Multiple Choice Question Answering Mcqa On 27
Métriques
Accuracy
Résultats
Résultats de performance de divers modèles sur ce benchmark
Tableau comparatif
Nom du modèle | Accuracy |
---|---|
scaling-language-models-methods-analysis-1 | 51.7 |
bloomberggpt-a-large-language-model-for | 92 |
bloomberggpt-a-large-language-model-for | 91.6 |
bloomberggpt-a-large-language-model-for | 92 |
palm-2-technical-report-1 | 84.8 |
bloomberggpt-a-large-language-model-for | 92 |
bloomberggpt-a-large-language-model-for | 70.8 |
training-compute-optimal-large-language | 54.2 |
palm-2-technical-report-1 | 82.4 |