Multimodal Reasoning On Rebus
Métriques
Accuracy
Résultats
Résultats de performance de divers modèles sur ce benchmark
Tableau comparatif
Nom du modèle | Accuracy |
---|---|
rebus-a-robust-evaluation-benchmark-of-1 | 0.6 |
rebus-a-robust-evaluation-benchmark-of-1 | 0.9 |
rebus-a-robust-evaluation-benchmark-of-1 | 0.9 |
rebus-a-robust-evaluation-benchmark-of-1 | 1.8 |
rebus-a-robust-evaluation-benchmark-of-1 | 13.2 |
rebus-a-robust-evaluation-benchmark-of-1 | 1.5 |
rebus-a-robust-evaluation-benchmark-of-1 | 0.9 |
rebus-a-robust-evaluation-benchmark-of-1 | 24.0 |