2 个月前
用于密集物体检测的焦损失函数
Lin, Tsung-Yi ; Goyal, Priya ; Girshick, Ross ; He, Kaiming ; Dollár, Piotr

摘要
迄今为止,最精确的目标检测器基于R-CNN推广的两阶段方法,其中分类器应用于一组稀疏的候选目标位置。相比之下,一阶段检测器在常规且密集的可能目标位置上进行采样,虽然有潜力实现更快和更简单的检测,但在准确性方面一直落后于两阶段检测器。本文中,我们探讨了造成这一现象的原因。我们发现,在训练密集检测器时遇到的极端前景-背景类别不平衡是主要原因。为了解决这一类别不平衡问题,我们提出通过重塑标准交叉熵损失函数来降低对良好分类样本的损失权重。我们的新型Focal Loss(焦损)专注于训练少量难例,并防止大量容易分类的负样本在训练过程中压倒检测器。为了评估我们提出的损失函数的有效性,我们设计并训练了一个简单的一阶段密集检测器,命名为RetinaNet(视网膜网络)。实验结果表明,当使用Focal Loss进行训练时,RetinaNet不仅能够达到先前一阶段检测器的速度水平,而且其准确性超过了所有现有的最先进的两阶段检测器。代码地址:https://github.com/facebookresearch/Detectron。