HyperAI

Visual Question Answering 1

Liste des benchmarks

Tous les benchmarks liés à cette tâche

amber
Meilleur modèle: RLAIF-V 12B

Métriques

Voir les détails
benchlmm
Meilleur modèle: GPT-4V

Métriques

Voir les détails
clevr
Meilleur modèle: NeSyCoCo Neuro-Symbolic

Métriques

Voir les détails
earthvqa
Meilleur modèle: SOBA

Métriques

Voir les détails
grit
Meilleur modèle: OFA

Métriques

Voir les détails
mm-vet
Meilleur modèle: Gemini 1.5 Pro (gemini-1.5-pro-002)

Métriques

Voir les détails
mm-vet-w-o-external-tools
Meilleur modèle: Emu-14B

Métriques

Voir les détails
mmbench
Meilleur modèle: LLaVA-InternLM2-ViT + MoSLoRA

Métriques

Voir les détails
msrvtt-qa
Meilleur modèle: Aurora (ours, r=64) Aurora (ours, r=64)

Métriques

Voir les détails
textvqa-test-standard
Meilleur modèle: PromptCap

Métriques

Voir les détails
v-bench
Meilleur modèle: IVM-Enhanced GPT4-V

Métriques

Voir les détails
vip-bench
Meilleur modèle: GPT-4V-turbo-detail:high (Visual Prompt)

Métriques

Voir les détails
visualmrc
Meilleur modèle: LayoutT5 (Large)

Métriques

Voir les détails
vizwiz
Meilleur modèle: Emu-I *

Métriques

Voir les détails
vqa-v2
Meilleur modèle: RLHF-V

Métriques

Voir les détails
vqa-v2-test-dev
Meilleur modèle: BLIP-2 ViT-G OPT 6.7B (fine-tuned)

Métriques

Voir les détails
vqa-v2-test-std
Meilleur modèle: LXMERT (low-magnitude pruning)

Métriques

Voir les détails
coco

Métriques

Voir les détails
coco-visual-question-answering-vqa-real-2

Métriques

Voir les détails
gqa

Métriques

Voir les détails
mapeval-visual

Métriques

Voir les détails
mm-vet-v2

Métriques

Voir les détails
mmhal-bench

Métriques

Voir les détails
msvd-qa

Métriques

Voir les détails
plotqa-d1

Métriques

Voir les détails
plotqa-d2

Métriques

Voir les détails
vqa-v2-val

Métriques

Voir les détails