Visual Question Answering 1
Benchmark-Liste
Alle Benchmarks für diese Aufgabe
amber
Bestes Modell: RLAIF-V 12B
Metriken
Details anzeigen
benchlmm
Bestes Modell: GPT-4V
Metriken
Details anzeigen
clevr
Bestes Modell: NeSyCoCo Neuro-Symbolic
Metriken
Details anzeigen
earthvqa
Bestes Modell: SOBA
Metriken
Details anzeigen
grit
Bestes Modell: OFA
Metriken
Details anzeigen
mm-vet
Bestes Modell: Gemini 1.5 Pro (gemini-1.5-pro-002)
Metriken
Details anzeigen
mm-vet-w-o-external-tools
Bestes Modell: Emu-14B
Metriken
Details anzeigen
mmbench
Bestes Modell: LLaVA-InternLM2-ViT + MoSLoRA
Metriken
Details anzeigen
msrvtt-qa
Bestes Modell: Aurora (ours, r=64) Aurora (ours, r=64)
Metriken
Details anzeigen
textvqa-test-standard
Bestes Modell: PromptCap
Metriken
Details anzeigen
v-bench
Bestes Modell: IVM-Enhanced GPT4-V
Metriken
Details anzeigen
vip-bench
Bestes Modell: GPT-4V-turbo-detail:high (Visual Prompt)
Metriken
Details anzeigen
visualmrc
Bestes Modell: LayoutT5 (Large)
Metriken
Details anzeigen
vizwiz
Bestes Modell: Emu-I *
Metriken
Details anzeigen
vqa-v2
Bestes Modell: RLHF-V
Metriken
Details anzeigen
vqa-v2-test-dev
Bestes Modell: BLIP-2 ViT-G OPT 6.7B (fine-tuned)
Metriken
Details anzeigen
vqa-v2-test-std
Bestes Modell: LXMERT (low-magnitude pruning)
Metriken
Details anzeigen
coco
Metriken
Details anzeigen
coco-visual-question-answering-vqa-real-2
Metriken
Details anzeigen
gqa
Metriken
Details anzeigen
mapeval-visual
Metriken
Details anzeigen
mm-vet-v2
Metriken
Details anzeigen
mmhal-bench
Metriken
Details anzeigen
msvd-qa
Metriken
Details anzeigen
plotqa-d1
Metriken
Details anzeigen
plotqa-d2
Metriken
Details anzeigen
vqa-v2-val
Metriken
Details anzeigen