Command Palette
Search for a command to run...
Réexamen de la perspective de classification pour la reconnaissance de texte scénique
Réexamen de la perspective de classification pour la reconnaissance de texte scénique
Hongxiang Cai Jun Sun Yichao Xiong
Résumé
Les approches courantes de reconnaissance de texte dans les scènes proviennent principalement de deux paradigmes : la transformation séquence à séquence (seq2seq) et la segmentation. Toutefois, la première repose sur un grand nombre de composants, ce qui complique considérablement son implémentation et son déploiement, tandis que la seconde nécessite des annotations au niveau des caractères, qui sont coûteuses à obtenir. Dans cet article, nous revisitons une perspective fondée sur la classification, en modélisant la reconnaissance de texte dans les scènes comme un problème de classification d’images. Cette perspective offre une chaîne de traitement simple et n’exige que des annotations au niveau des mots. Nous réactivons cette approche en proposant un modèle de reconnaissance de texte dans les scènes nommé CSTR (Classification-based Scene Text Recognition), qui atteint des performances comparables à celles des méthodes issues d’autres paradigmes. Le modèle CSTR se compose de deux composants principaux : CPNet (Classification Perspective Network) et SPPN (Separated Convolution avec prédiction par pooling moyen global). Contrairement aux architectures complexes, CSTR est aussi simple qu’un modèle de classification d’images classique tel que ResNet \cite{he2016deep}, ce qui facilite grandement son implémentation et son déploiement. Nous démontrons l’efficacité de la perspective classification sur la reconnaissance de texte dans les scènes à travers des expérimentations étendues. En outre, CSTR atteint des performances quasi-état-de-l’art sur six benchmarks publics, couvrant à la fois des textes réguliers et irréguliers. Le code source sera mis à disposition à l’adresse suivante : https://github.com/Media-Smart/vedastr.