图像块的分词化:大图像有效去雾的全局上下文融合
Jiuchen Chen, Xinyu Yan, Qizhi Xu, Kaiqi Li
发布日期: 4/23/2025

摘要
全局上下文信息和局部细节特征对于雾霾去除任务至关重要。深度学习模型在处理小尺寸、低分辨率图像时表现出色,但在处理大尺寸、高分辨率图像时,由于GPU内存限制而遇到困难。作为折衷方案,它们通常采用图像切片或降采样的方法。前者会削弱全局信息,而后者则会丢弃高频细节。为了解决这些问题,我们提出了DehazeXL,这是一种有效的雾霾去除方法,能够在主流GPU硬件上实现对大尺寸图像的端到端建模,并平衡全局上下文和局部特征提取。此外,为了评估全局上下文在雾霾去除性能中的利用效率,我们设计了一种专门针对雾霾去除任务特性的可视化归因方法。最后,鉴于缺乏用于大尺寸图像雾霾去除的基准数据集,我们开发了一个超高清分辨率的雾霾去除数据集(8KDehaze),以支持模型训练和测试。该数据集包含10000对清晰与有雾霾的遥感图像,每张图像的尺寸为8192×8192像素。大量实验表明,DehazeXL仅使用21GB内存即可推断出高达10240×10240像素的图像,在所有评估方法中取得了最先进的结果。源代码和实验数据集可在https://github.com/CastleChen339/DehazeXL获取。