2 个月前

MixPro:使用MaskMix和渐进注意力标注的视觉变换器数据增强方法

Zhao, Qihao ; Huang, Yangyu ; Hu, Wei ; Zhang, Fan ; Liu, Jun
MixPro:使用MaskMix和渐进注意力标注的视觉变换器数据增强方法
摘要

最近提出的数据增强方法TransMix利用注意力标签帮助视觉变换器(ViT)实现更好的鲁棒性和性能。然而,TransMix在两个方面存在不足:1)TransMix的图像裁剪方法可能不适合ViT;2)在训练初期,模型生成的注意力图不可靠。TransMix使用这些不可靠的注意力图来计算混合注意力标签,这可能会影响模型的表现。为了解决上述问题,我们分别从图像空间和标签空间提出了MaskMix和渐进式注意力标签(Progressive Attention Labeling, PAL)。具体而言,从图像空间的角度,我们设计了MaskMix,该方法基于类似补丁的网格掩模混合两张图像。特别地,每个掩模补丁的大小是可调的,并且是图像补丁大小的倍数,这确保了每个图像补丁仅来自一张图像并包含更多的全局内容。从标签空间的角度,我们设计了PAL,该方法利用一个渐进因子动态地重新加权混合注意力标签的注意力权重。最后,我们将MaskMix和渐进式注意力标签结合,形成了一种新的数据增强方法,命名为MixPro。实验结果表明,我们的方法可以在ImageNet分类任务中提升各种基于ViT的模型性能(基于DeiT-T训练300个epoch后的top-1准确率为73.8%)。经过使用MixPro在ImageNet上预训练后,基于ViT的模型在语义分割、目标检测和实例分割任务中也表现出更好的迁移能力。此外,与TransMix相比,MixPro在多个基准测试中显示出更强的鲁棒性。代码已开源,可在https://github.com/fistyee/MixPro获取。

MixPro:使用MaskMix和渐进注意力标注的视觉变换器数据增强方法 | 最新论文 | HyperAI超神经