
摘要
我们提出了一种高性能的方法,仅使用边界框注释即可实现像素级实例分割。尽管这一设置在文献中已有研究,但在这里我们展示了显著更强的性能,通过简单的设计(例如,在COCO数据集上将Hsu等人(2019)先前报告的最佳掩码AP从21.1%大幅提升至31.6%)。我们的核心思想是在不修改分割网络本身的情况下,重新设计实例分割中学习掩码的损失函数。新的损失函数可以在不依赖掩码注释的情况下监督掩码训练。这通过两个损失项得以实现,即:1)一个代理项,最小化真实边界框投影与预测掩码之间的差异;2)一个成对损失项,利用邻近像素颜色相似则很可能具有相同类别标签的先验知识。实验结果表明,重新设计的掩码损失函数仅使用边界框注释就能生成高质量的实例掩码。例如,在不使用任何掩码注释的情况下,采用ResNet-101骨干网络和3倍训练计划,我们在COCO测试开发集上达到了33.2%的掩码AP(而完全监督方法的对应值为39.1%)。我们在COCO和Pascal VOC上的优秀实验结果表明,该方法显著缩小了弱监督和全监督实例分割之间的性能差距。代码可从以下地址获取:https://git.io/AdelaiDet