Sarcasm Detection On Big Bench Snarks
Métriques
Accuracy
Résultats
Résultats de performance de divers modèles sur ce benchmark
Tableau comparatif
Nom du modèle | Accuracy |
---|---|
bloomberggpt-a-large-language-model-for | 78.1 |
scaling-language-models-methods-analysis-1 | 48.3 |
palm-2-technical-report-1 | 78.7 |
bloomberggpt-a-large-language-model-for | 69.66 |
bloomberggpt-a-large-language-model-for | 72.47 |
palm-2-technical-report-1 | 84.8 |
bloomberggpt-a-large-language-model-for | 62.36 |
training-compute-optimal-large-language | 58.6 |