
摘要
本文介绍了一种用于自然图像中文字检测的新方法。该方法包含两个主要贡献:首先,提出了一种快速且可扩展的引擎,用于生成杂乱背景下的合成文字图像。该引擎以自然的方式将合成文字叠加到现有的背景图像上,同时考虑了局部三维场景几何结构。其次,我们利用这些合成图像训练了一个全卷积回归网络(Fully-Convolutional Regression Network, FCRN),该网络能够在图像的所有位置和多个尺度上高效地进行文字检测和边界框回归。我们还讨论了FCRN与最近提出的YOLO检测器以及其他基于深度学习的端到端目标检测系统的关系。实验结果表明,所提出的检测网络在自然图像中的文字检测性能显著优于现有方法,在标准ICDAR 2013基准测试中达到了84.2%的F值。此外,该网络在GPU上可以每秒处理15幅图像。