
摘要
场景分割是一项具有挑战性的任务,因其需要对图像中的每一个像素进行精确标注。为了实现更优的分割效果,关键在于充分挖掘具有判别性的上下文信息,并有效聚合多尺度特征。本文首先提出一种新颖的上下文对比局部特征,该特征不仅利用了富含信息的上下文信息,还通过与上下文对比的方式突出局部细节信息。所提出的上下文对比局部特征显著提升了分割性能,尤其在处理不显眼物体和背景区域时表现优异。此外,本文还提出一种门控求和(gated sum)机制,用于在每个空间位置上选择性地聚合多尺度特征。该机制中的门控单元控制不同尺度特征的信息流动,其取值由基于训练数据学习得到的网络,根据测试图像动态生成,因而不仅适应训练数据分布,也能够自适应地响应特定测试图像的特性。在不依赖任何额外技巧(bells and whistles)的前提下,所提出的方法在三个主流场景分割数据集——Pascal Context、SUN-RGBD 和 COCO Stuff 上均取得了当前最优(state-of-the-art)的稳定表现。