8 天前

基于序列生成的统一场景文本定位与识别

Taeho Kil, Seonghyeon Kim, Sukmin Seo, Yoonsik Kim, Daehee Kim
基于序列生成的统一场景文本定位与识别
摘要

近年来,序列生成模型在统一多种视觉任务方面取得了显著进展。尽管部分自回归模型在端到端文本检测任务中已展现出良好性能,但其通常采用特定的检测格式,忽视了文本的多样化形状,且在可检测文本实例的最大数量上存在局限。为克服上述限制,本文提出一种统一的场景文本检测模型——UNITS(UNIfied scene Text Spotter)。该模型统一了多种检测格式,包括四边形和多边形,能够检测任意形状的文本。此外,我们引入起始点提示(starting-point prompting)机制,使模型可从任意起始位置提取文本,从而实现超出训练时所限定实例数量的文本提取。实验结果表明,所提方法在性能上达到与当前最先进方法相媲美的水平。进一步分析显示,UNITS能够提取的文本数量超过其训练时的实例上限。相关代码已开源,地址为:https://github.com/clovaai/units。