MaskOCR : Reconnaissance de texte par pré-entraînement encodage-décodage masqué

Les images textuelles contiennent à la fois des informations visuelles et linguistiques. Toutefois, les techniques existantes de pré-entraînement pour la reconnaissance de texte se concentrent principalement soit sur l’apprentissage des représentations visuelles, soit sur l’apprentissage des connaissances linguistiques. Dans cet article, nous proposons une nouvelle approche, MaskOCR, visant à unifier le pré-entraînement vision-langage dans le cadre classique d’architecture encodeur-décodage pour la reconnaissance. Nous adoptons une stratégie de modélisation d’image masquée pour pré-entraîner le encodeur de caractéristiques à partir d’un grand ensemble d’images textuelles réelles non étiquetées, ce qui permet d’acquérir des représentations visuelles puissantes. Contrairement à l’ajout d’un modèle linguistique supplémentaire pour intégrer les connaissances linguistiques, nous pré-entraînons directement le décodeur de séquence. Plus précisément, nous transformons les données textuelles en images textuelles synthétiques afin d’unifier les modalités de données visuelles et linguistiques, et renforçons la capacité de modélisation linguistique du décodeur de séquence grâce à un nouveau schéma de modélisation image-langage masquée. Notons que, de manière significative, l’encodeur est gelé pendant la phase de pré-entraînement du décodeur de séquence. Les résultats expérimentaux montrent que la méthode proposée atteint des performances supérieures sur des jeux de données de référence, incluant des images textuelles en chinois et en anglais.