HyperAIHyperAI
il y a 15 jours

Reconnaissance de texte manuscrit non contrainte sans récurrence à l’aide d’un réseau convolutionnel entièrement à portes

Denis Coquenet, Clément Chatelain, Thierry Paquet
Reconnaissance de texte manuscrit non contrainte sans récurrence à l’aide d’un réseau convolutionnel entièrement à portes
Résumé

La reconnaissance de texte manuscrit non contrainte constitue une étape majeure dans la plupart des tâches d’analyse de documents. Ce type de reconnaissance est généralement traité à l’aide de réseaux de neurones profonds à récurrence, et plus particulièrement par l’utilisation de cellules Long Short-Term Memory (LSTM). Les principaux inconvénients de ces composants résident dans le grand nombre de paramètres qu’ils impliquent ainsi que dans leur exécution séquentielle lors de l’entraînement et de la prédiction. Une solution alternative à l’utilisation des cellules LSTM consiste à compenser la perte de mémoire à long terme grâce à une utilisation intensive de couches convolutives, dont les opérations peuvent être exécutées en parallèle et qui impliquent un nombre réduit de paramètres. Dans cet article, nous présentons une architecture de réseau fully convolutif à portes (Gated Fully Convolutional Network), offrant une alternative sans récurrence aux architectures bien connues CNN+LSTM. Notre modèle est entraîné à l’aide d’une perte CTC et obtient des résultats compétitifs sur les jeux de données RIMES et IAM. Nous mettons à disposition l’intégralité du code afin de permettre la reproduction de nos expériences : https://github.com/FactoDeepLearning/LinePytorchOCR.

Reconnaissance de texte manuscrit non contrainte sans récurrence à l’aide d’un réseau convolutionnel entièrement à portes | Articles de recherche récents | HyperAI