
摘要
无类别计数(Class-agnostic counting)近年来已成为一种更具实用性的计数任务,其目标是预测任意示例物体的数量与分布,而非局限于特定类别(如行人或车辆)的计数。然而,现有方法主要通过设计示例对象与查询图像之间的合适相似性匹配规则来实现,却忽视了所提取特征的鲁棒性。为解决这一问题,本文提出一种融合示例对象信息(如尺度)的尺度先验可变形卷积(scale-prior deformable convolution),将其集成至计数网络主干结构中。该设计使网络能够有效提取与给定示例对象语义相似的特征,并显著过滤无关背景信息。此外,我们发现传统的L2损失与广义损失(generalized loss)在无类别计数任务中表现不佳,原因在于不同样本间物体尺度差异较大。为此,本文提出一种尺度敏感的广义损失函数(scale-sensitive generalized loss),可根据输入示例动态调整损失函数的构建方式,从而增强预测结果与真实标签之间的差异性,提升模型学习效果。大量实验表明,所提方法在公开的无类别计数基准数据集上取得了显著性能提升,达到当前最优水平。代码已开源,地址为:https://github.com/Elin24/SPDCN-CAC。