
摘要
单阶段目标检测通常通过优化两个子任务——目标分类与定位——来实现,其模型结构采用具有两个并行分支的检测头,这可能导致两个任务之间的预测存在一定程度的空间错位。本文提出一种任务对齐的单阶段目标检测方法(Task-aligned One-stage Object Detection, TOOD),以学习的方式显式对齐这两个任务。首先,我们设计了一种新型的任务对齐检测头(Task-aligned Head, T-Head),该结构在学习任务交互特征与任务特异性特征之间实现了更优的平衡,并通过任务对齐预测器具备更强的对齐学习灵活性。其次,我们提出了任务对齐学习(Task Alignment Learning, TAL),通过设计的样本分配策略与任务对齐损失函数,在训练过程中显式地拉近(甚至统一)两个任务的最优锚框。在MS-COCO数据集上的大量实验表明,TOOD在单模型单尺度测试下达到了51.1的AP(Average Precision),显著优于近期的单阶段检测器,如ATSS(47.7 AP)、GFL(48.2 AP)和PAA(49.0 AP),且参数量和浮点运算量(FLOPs)更少。定性结果也验证了TOOD在提升目标分类与定位任务之间对齐性方面的有效性。代码已开源,地址为:https://github.com/fcjian/TOOD。