16日前
動的動画環境における光学文字認識に関する視覚言語モデルのベンチマーク評価
Sankalp Nagaonkar, Augustya Sharma, Ashish Choithani, Ashutosh Trivedi

要約
本稿では、動的動画環境における光学文字認識(OCR)タスクにおいて視覚言語モデル(VLM)の性能を評価するためのオープンソースベンチマークを紹介する。本研究では、コードエディタ、ニュース放送、YouTube動画、広告など多様な領域をカバーする1,477フレームの手動アノテーション付きデータセットを構築した。このデータセットを用いて、最先端のVLMであるClaude-3、Gemini-1.5、GPT-4oの性能を、EasyOCRやRapidOCRといった従来型OCRシステムと比較評価した。評価指標として、単語誤字率(WER)、文字誤字率(CER)、正答率を用いた。実験結果から、VLMは動画ベースのOCRタスクにおいて多くの場面で従来型OCRモデルを上回る可能性を示した一方で、幻覚(hallucination)、コンテンツセキュリティポリシーの制約、隠蔽や装飾されたテキストに対する感度といった課題も明らかになった。本研究で開発したデータセットおよびベンチマークフレームワークは公開されており、今後の研究を促進することを目的としている。