HyperAIHyperAI

Command Palette

Search for a command to run...

Reconnaissance de texte manuscrit non contrainte sans récurrence à l’aide d’un réseau convolutionnel entièrement à portes

Denis Coquenet Clément Chatelain Thierry Paquet

Résumé

La reconnaissance de texte manuscrit non contrainte constitue une étape majeure dans la plupart des tâches d’analyse de documents. Ce type de reconnaissance est généralement traité à l’aide de réseaux de neurones profonds à récurrence, et plus particulièrement par l’utilisation de cellules Long Short-Term Memory (LSTM). Les principaux inconvénients de ces composants résident dans le grand nombre de paramètres qu’ils impliquent ainsi que dans leur exécution séquentielle lors de l’entraînement et de la prédiction. Une solution alternative à l’utilisation des cellules LSTM consiste à compenser la perte de mémoire à long terme grâce à une utilisation intensive de couches convolutives, dont les opérations peuvent être exécutées en parallèle et qui impliquent un nombre réduit de paramètres. Dans cet article, nous présentons une architecture de réseau fully convolutif à portes (Gated Fully Convolutional Network), offrant une alternative sans récurrence aux architectures bien connues CNN+LSTM. Notre modèle est entraîné à l’aide d’une perte CTC et obtient des résultats compétitifs sur les jeux de données RIMES et IAM. Nous mettons à disposition l’intégralité du code afin de permettre la reproduction de nos expériences : https://github.com/FactoDeepLearning/LinePytorchOCR.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp