HyperAIHyperAI
il y a 5 jours

COREVQA : Un benchmark de réponse aux questions visuelles par observation et raisonnement de foule

Ishant Chintapatla, Kazuma Choji, Naaisha Agarwal, Andrew Lin, Hannah You, Charles Duong, et al
COREVQA : Un benchmark de réponse aux questions visuelles par observation et raisonnement de foule
Résumé

Récemment, de nombreux benchmarks et jeux de données ont été développés afin d'évaluer les modèles vision-langage (VLM) à l'aide de paires de questions-réponses visuelles (VQA), au cours desquels les modèles ont montré des améliorations significatives en termes de précision. Toutefois, ces benchmarks testent rarement la capacité du modèle à accomplir correctement des inférences visuelles, par exemple en acceptant ou en réfutant une hypothèse fondée sur une image. Afin de pallier ce manque, nous proposons COREVQA (Crowd Observations and Reasoning Entailment), un benchmark comprenant 5 608 paires d’images et d’énoncés vrais/faux générés de manière synthétique, les images étant extraites du jeu de données CrowdHuman, afin d’inciter le raisonnement d’inférence visuelle sur des images complexes et surchargées. Nos résultats montrent que même les VLM les plus performants atteignent une précision inférieure à 80 %, tandis que d’autres modèles obtiennent des performances nettement plus faibles (entre 39,98 % et 69,95 %). Ce large écart de performance met en évidence des limites clés dans la capacité des VLM à raisonner sur certains types de paires image-question dans des scènes surpeuplées.

COREVQA : Un benchmark de réponse aux questions visuelles par observation et raisonnement de foule | Articles de recherche récents | HyperAI