
摘要
基于神经网络的场景文字检测方法最近出现并展现出令人鼓舞的结果。以往的方法使用刚性的单词级边界框进行训练,在表示任意形状的文字区域方面存在局限性。本文提出了一种新的场景文字检测方法,通过探索每个字符及其之间的亲和力来有效检测文字区域。为了克服单个字符级别注释的缺乏,我们提出的框架利用了合成图像提供的字符级别注释以及通过学习的中间模型获得的真实图像的估计字符级别真值。为了估计字符间的亲和力,网络采用了新提出的亲和力表示方法进行训练。在包括TotalText和CTW-1500数据集在内的六个基准测试中进行了广泛的实验,这些数据集包含自然图像中的高度弯曲文字,结果表明我们的字符级别文字检测显著优于现有的最先进检测器。根据实验结果,我们提出的方法在检测复杂场景文字图像(如任意方向、弯曲或变形的文字)时具有很高的灵活性。