HyperAI

Visual Question Answering 1

Benchmark-Liste

Alle Benchmarks für diese Aufgabe

amber
Bestes Modell: RLAIF-V 12B

Metriken

Details anzeigen
benchlmm
Bestes Modell: GPT-4V

Metriken

Details anzeigen
clevr
Bestes Modell: NeSyCoCo Neuro-Symbolic

Metriken

Details anzeigen
earthvqa
Bestes Modell: SOBA

Metriken

Details anzeigen
grit
Bestes Modell: OFA

Metriken

Details anzeigen
mm-vet
Bestes Modell: Gemini 1.5 Pro (gemini-1.5-pro-002)

Metriken

Details anzeigen
mm-vet-w-o-external-tools
Bestes Modell: Emu-14B

Metriken

Details anzeigen
mmbench
Bestes Modell: LLaVA-InternLM2-ViT + MoSLoRA

Metriken

Details anzeigen
msrvtt-qa
Bestes Modell: Aurora (ours, r=64) Aurora (ours, r=64)

Metriken

Details anzeigen
textvqa-test-standard
Bestes Modell: PromptCap

Metriken

Details anzeigen
v-bench
Bestes Modell: IVM-Enhanced GPT4-V

Metriken

Details anzeigen
vip-bench
Bestes Modell: GPT-4V-turbo-detail:high (Visual Prompt)

Metriken

Details anzeigen
visualmrc
Bestes Modell: LayoutT5 (Large)

Metriken

Details anzeigen
vizwiz
Bestes Modell: Emu-I *

Metriken

Details anzeigen
vqa-v2
Bestes Modell: RLHF-V

Metriken

Details anzeigen
vqa-v2-test-dev
Bestes Modell: BLIP-2 ViT-G OPT 6.7B (fine-tuned)

Metriken

Details anzeigen
vqa-v2-test-std
Bestes Modell: LXMERT (low-magnitude pruning)

Metriken

Details anzeigen
coco

Metriken

Details anzeigen
coco-visual-question-answering-vqa-real-2

Metriken

Details anzeigen
gqa

Metriken

Details anzeigen
mapeval-visual

Metriken

Details anzeigen
mm-vet-v2

Metriken

Details anzeigen
mmhal-bench

Metriken

Details anzeigen
msvd-qa

Metriken

Details anzeigen
plotqa-d1

Metriken

Details anzeigen
plotqa-d2

Metriken

Details anzeigen
vqa-v2-val

Metriken

Details anzeigen