Évaluation des modèles vision-langage en reconnaissance optique de caractères dans des environnements vidéo dynamiques

Ce papier présente une base de données open source destinée à évaluer les modèles vision-langage (VLM) sur des tâches de reconnaissance optique de caractères (OCR) dans des environnements vidéo dynamiques. Nous introduisons un jeu de données soigneusement sélectionné comprenant 1 477 cadres annotés manuellement, couvrant des domaines variés tels que les éditeurs de code, les émissions de actualités, les vidéos YouTube et les publicités. Trois modèles VLM de pointe — Claude-3, Gemini-1.5 et GPT-4o — sont évalués par rapport à des systèmes OCR traditionnels comme EasyOCR et RapidOCR. Les métriques d'évaluation incluent le taux d'erreur mot (WER), le taux d'erreur caractère (CER) et la précision. Nos résultats mettent en évidence les forces et les limites des VLM dans les tâches d'OCR basées sur des vidéos, démontrant leur potentiel à surpasser les modèles OCR classiques dans de nombreux scénarios. Toutefois, des défis subsistent, notamment les hallucinations, les politiques de sécurité du contenu et la sensibilité aux textes partiellement masqués ou stylisés. La base de données et le cadre d'évaluation sont rendus accessibles au public afin de stimuler des recherches ultérieures.