2 个月前

同时增强:通过IBN-Net提升学习和泛化能力

Pan, Xingang ; Luo, Ping ; Shi, Jianping ; Tang, Xiaoou
同时增强:通过IBN-Net提升学习和泛化能力
摘要

卷积神经网络(CNNs)在许多计算机视觉问题中取得了显著的成功。与现有工作不同的是,这些工作设计的CNN架构仅针对单一领域的单一任务进行优化且不具备泛化能力,我们提出了一种新颖的卷积架构——IBN-Net,该网络不仅显著增强了CNN在一个领域(例如Cityscapes)上的建模能力,同时在另一个领域(例如GTA5)上也具有出色的泛化能力,而无需进行微调。IBN-Net巧妙地将实例归一化(Instance Normalization, IN)和批归一化(Batch Normalization, BN)作为构建模块集成在一起,并可以嵌入多种先进的深度网络以提升其性能。本研究有三个关键贡献:(1) 通过深入研究IN和BN,我们揭示了IN学习到的特征对颜色、风格和虚拟/现实等外观变化具有不变性,而BN对于保留与内容相关的信息至关重要。(2) IBN-Net可以应用于多种先进的深度架构,如DenseNet、ResNet、ResNeXt和SENet,并且在不增加计算成本的情况下持续提升它们的性能。(3) 当将训练好的网络应用于新领域时,例如从GTA5到Cityscapes,IBN-Net能够实现与领域适应方法相当的改进效果,即使没有使用目标领域的数据。凭借IBN-Net,我们在WAD 2018挑战赛中的可行驶区域赛道上获得了第一名,mIoU达到86.18%。

同时增强:通过IBN-Net提升学习和泛化能力 | 最新论文 | HyperAI超神经