16 天前

少样本CNN分割中的纹理偏差

Reza Azad, Abdur R Fayjie, Claude Kauffman, Ismail Ben Ayed, Marco Pedersoli, Jose Dolz
少样本CNN分割中的纹理偏差
摘要

尽管最初认为卷积神经网络(Convolutional Neural Networks, CNNs)是通过形状特征来执行视觉识别任务的,但近期研究表明,在大规模带标签训练数据集上训练时,CNNs 中存在的纹理偏好(texture bias)反而能够带来性能更优的模型。这一现象与人类视觉皮层中的感知偏好形成鲜明对比——人类视觉系统对形状成分具有更强的敏感性。这种感知差异可能解释了为何当拥有大规模标注数据时,CNNs 能够达到人类水平的性能,但在标注数据稀缺的场景下(如少样本语义分割),其性能会显著下降。为在少样本学习(few-shot learning)背景下消除 CNNs 中的纹理偏差,本文提出一种新型网络架构,该架构引入一组高斯差分(Difference of Gaussians, DoG)操作,用于抑制特征空间中的高频局部成分。该方法通过在空间域中采用不同标准差(standard deviation)的高斯分布对特征图进行平滑处理,生成一组经修改的特征图,其高频分量被不同程度地削弱。由于单张图像会产生多个尺度空间下的特征表示,我们进一步采用双向卷积长短期记忆网络(bi-directional convolutional long-short-term memory, Bi-ConvLSTM)高效融合这些多尺度特征表示。我们在三个广泛使用的少样本分割基准数据集上进行了大量实验:Pascal-5i、COCO-20i 和 FSS-1000。实验结果表明,在相同实验条件下,所提方法在其中两个数据集上均优于现有最先进(state-of-the-art)的方法。代码已开源,地址为:https://github.com/rezazad68/fewshot-segmentation。