DocVQA: Ein Datensatz für VQA auf Dokumentabbildungen

Wir stellen ein neues Datenset für Visual Question Answering (VQA) auf Dokumentbildern vor, namens DocVQA. Das Datenset umfasst 50.000 Fragen, die auf über 12.000 Dokumentbildern definiert sind. Eine detaillierte Analyse des Datensets im Vergleich zu ähnlichen Datensätzen für VQA und Leseverständnis wird präsentiert. Wir berichten über mehrere Baseline-Ergebnisse, die durch die Anwendung bestehender VQA- und Leseverständnismodelle erzielt wurden. Obwohl die bestehenden Modelle für bestimmte Fragearten annehmbar gut abschneiden, besteht weiterhin eine erhebliche Leistungslücke gegenüber der menschlichen Leistung (94,36 % Genauigkeit). Die Modelle müssen insbesondere bei Fragen verbessert werden, bei denen das Verständnis der Dokumentstruktur entscheidend ist. Das Datenset, der zugehörige Code und die Leaderboard-Plattform sind unter docvqa.org verfügbar.