HyperAIHyperAI
vor 2 Monaten

Eine umfassende Studie zur ImageNet-Vor训练 für die Analyse historischer Dokumentbilder

Linda Studer; Michele Alberti; Vinaychandran Pondenkandath; Pinar Goktepe; Thomas Kolonko; Andreas Fischer; Marcus Liwicki; Rolf Ingold
Eine umfassende Studie zur ImageNet-Vor训练 für die Analyse historischer Dokumentbilder
Abstract

Die automatische Analyse gescannter historischer Dokumente umfasst eine Vielzahl von Aufgaben der Bildanalyse, die oft aufgrund des Mangels an menschlich annotierten Lernbeispielen für maschinelles Lernen herausfordernd sind. Mit der Einführung tiefer neuronaler Netze bietet sich ein vielversprechender Ansatz an, um den Mangel an Trainingsdaten zu bewältigen: Modelle werden zunächst auf Bilder aus einem anderen Bereich vortrainiert und dann auf historische Dokumente feinjustiert. Im aktuellen Forschungsbereich ist ein typisches Beispiel solcher domänenübergreifenden Transfer-Lernverfahren die Verwendung von neuronalen Netzen, die für Objekterkennung auf der ImageNet-Datenbank vortrainiert wurden. Es bleibt jedoch weitgehend offen, ob dieses Vortraining bei der Analyse historischer Dokumente hilfreich ist, die grundlegend andere Bildmerkmale als die in ImageNet enthaltenen haben. In dieser Arbeit präsentieren wir eine umfassende empirische Untersuchung zur Wirkung des Vortrainings auf ImageNet für verschiedene Aufgaben der Analyse historischer Dokumente, einschließlich Zeichenerkennung, Stilklassifikation, Datierung von Handschriften, semantischer Segmentierung und inhaltsbasierter Abruf. Während wir für die semantische Segmentierung auf Pixel-Ebene gemischte Ergebnisse erzielen, beobachten wir einen klaren Trend über verschiedene Netzarchitekturen hinweg, dass das Vortraining auf ImageNet einen positiven Einfluss sowohl auf Klassifikationsaufgaben als auch auf inhaltsbasierten Abruf hat.

Eine umfassende Studie zur ImageNet-Vor训练 für die Analyse historischer Dokumentbilder | Neueste Forschungsarbeiten | HyperAI