HyperAIHyperAI
il y a 2 mois

Pas de remplissage s'il vous plaît : Reconnaissance efficace de l'écriture manuscrite par réseau neuronal

Gideon Maillette de Buy Wenniger; Lambert Schomaker; Andy Way
Pas de remplissage s'il vous plaît : Reconnaissance efficace de l'écriture manuscrite par réseau neuronal
Résumé

La reconnaissance de l'écriture manuscrite neuronale (NHR) est la reconnaissance du texte manuscrit à l'aide de modèles d'apprentissage profond, tels que les réseaux de neurones récurrents à mémoire à court et long terme multidimensionnelle (MDLSTM). Les modèles dotés de couches MDLSTM ont obtenu des résultats de pointe dans les tâches de reconnaissance du texte manuscrit. Bien que les couches MDLSTM multidirectionnelles possèdent une capacité sans égale à capturer le contexte complet dans toutes les directions, cette force limite les possibilités de parallélisation et entraîne donc un coût informatique élevé. Dans ce travail, nous développons des méthodes pour créer des modèles basés sur MDLSTM efficaces pour la NHR, en particulier une méthode visant à éliminer le gaspillage de calcul résultant du remplissage (padding). Cette méthode proposée, appelée empaquetage d'exemples (example-packing), remplace l'empilement inefficace d'exemples remplis par un pavage efficace dans une grille bidimensionnelle. Pour la NHR basée sur les mots, cela offre une amélioration de vitesse de facteur 6,6 par rapport à une base déjà efficace avec un remplissage minimal pour chaque lot séparément. Pour la NHR basée sur les lignes, les gains sont plus modestes mais toujours significatifs. En plus de l'empaquetage d'exemples, nous proposons : 1) une technique pour optimiser la parallélisation dans les cadres de définition dynamique de graphes, notamment PyTorch, en utilisant des convolutions avec groupement ; 2) une méthode pour la parallélisation entre GPU pour des lots d'exemples de longueur variable. Toutes nos techniques sont rigoureusement testées sur notre propre réimplémentation PyTorch des modèles NHR basés sur MDLSTM. Une évaluation approfondie sur l'ensemble de données IAM montre que nos modèles se comportent de manière similaire aux implémentations antérieures des modèles de pointe. Notre modèle NHR efficace et certaines des techniques réutilisables discutées offrent des moyens de réaliser des modèles relativement efficaces pour le scénario omniprésent d'entrées de longueur variable en apprentissage profond.

Pas de remplissage s'il vous plaît : Reconnaissance efficace de l'écriture manuscrite par réseau neuronal | Articles de recherche récents | HyperAI