2 个月前

PixelLink:通过实例分割检测场景文本

Dan Deng; Haifeng Liu; Xuelong Li; Deng Cai
PixelLink:通过实例分割检测场景文本
摘要

大多数最先进的场景文本检测算法都是基于深度学习的方法,依赖于边界框回归,并至少进行两种预测:文本/非文本分类和位置回归。在这些方法中,回归在获取边界框方面起着关键作用,但并非不可或缺,因为文本/非文本预测也可以被视为一种包含完整位置信息的语义分割。然而,场景图像中的文本实例通常非常接近,使得通过语义分割很难将它们分开。因此,需要实例分割来解决这一问题。本文提出了一种基于实例分割的新型场景文本检测算法——PixelLink。该算法首先通过连接同一实例内的像素来分割出文本实例,然后直接从分割结果中提取文本边界框,而无需进行位置回归。实验表明,与基于回归的方法相比,PixelLink在多个基准测试中可以实现更好的或相当的性能,同时需要更少的训练迭代次数和更少的训练数据。

PixelLink:通过实例分割检测场景文本 | 最新论文 | HyperAI超神经