
摘要
近年来,基于分割的场景文本检测方法因其在检测任意形状及极端长宽比文本实例方面的显著优势,受到广泛关注。这一优势源于其像素级的描述能力。然而,现有的大多数基于分割的方法在实际应用中仍面临两大瓶颈:一是后处理算法复杂,且与模型优化相互割裂,耗时较长;二是分割模型的尺度鲁棒性不足,通常通过直接融合多尺度特征图来增强,但这种方式缺乏自适应能力。针对上述问题,本文提出一种可微分二值化(Differentiable Binarization, DB)模块,将后处理流程中至关重要的二值化步骤融入分割网络中,实现端到端的联合优化。在DB模块的协同优化下,分割网络能够生成更为精确的文本区域预测,从而在保持简单推理流程的同时显著提升文本检测的精度。此外,本文还设计了一种高效的自适应尺度融合(Adaptive Scale Fusion, ASF)模块,通过自适应地融合多尺度特征,有效提升模型对不同尺度文本的鲁棒性。将所提出的DB与ASF模块与分割网络相结合,所构建的场景文本检测器在五个标准基准测试上均取得了当前最优的检测精度与速度表现,实现了性能与效率的双重突破。