
摘要
在实例分割领域,当前大多数先进的深度学习网络普遍采用级联架构,即依次训练多个目标检测器,并在每一步重新采样真实标签(ground truth)。这种机制有效缓解了正样本指数级衰减的问题,但同时也导致网络参数量显著增加,模型复杂度上升。为解决这一问题,我们提出了一种递归精炼的R-CNN(R³-CNN)架构,通过引入循环机制避免重复计算,从而减少冗余。同时,该方法利用递归重采样技术,在每一次递归中采用特定的交并比(IoU)质量标准,逐步实现对正样本空间的均衡覆盖,从而提升检测质量。实验表明,R³-CNN在权重中显式编码了循环机制,因此必须在推理阶段启用该机制才能发挥其优势。在性能上,R³-CNN超越了近期提出的HTC模型,同时大幅减少了模型参数量。在COCO minival 2017数据集上的实验结果表明,该方法在不同基线模型下均能独立实现性能提升。相关代码已开源,地址为:https://github.com/IMPLabUniPr/mmdetection/tree/r3_cnn。