
摘要
得益于深度图像中蕴含的空间线索,基于RGB-D的显著性检测近年来在某些挑战性场景下展现出令人瞩目的性能。然而,现有方法仍存在两个主要局限:一方面,全卷积网络(FCNs)中的池化与上采样操作可能导致物体边界模糊;另一方面,采用额外的深度网络来提取深度特征会带来较高的计算与存储开销。此外,当前RGB-D模型在测试阶段对深度输入的依赖,也限制了其实际应用的广泛性。为此,本文提出一种新颖的协同学习框架,以更高效的方式联合利用边缘、深度与显著性信息,巧妙地解决了上述问题。通过显式提取的边缘信息与显著性特征协同作用,增强对显著区域及物体边界的关注。同时,深度信息与显著性学习被创新性地融入高层特征学习过程,实现互利共生的联合优化。该策略使网络在推理阶段无需依赖额外的深度网络或深度输入,从而显著提升了模型的轻量化程度、运行速度与适用性。在七个基准数据集上的实验结果表明,所提方法在性能上均优于现有方法,展现出卓越的检测能力。