17 天前

超高分辨率分割与超丰富上下文:一项新型基准

Deyi Ji, Feng Zhao, Hongtao Lu, Mingyuan Tao, Jieping Ye
超高分辨率分割与超丰富上下文:一项新型基准
摘要

随着超高清分割(Ultra-High Resolution, UHR)方法的日益关注与快速发展,亟需一个涵盖广泛场景、并具备全细粒度密集标注的大规模基准数据集,以推动该领域的进步。为此,本文提出了URUR数据集,其名称意为“超高清且上下文极其丰富的数据集”(Ultra-High Resolution dataset with Ultra-Rich Context)。正如其名所示,URUR包含大量高分辨率图像(共3,008张,尺寸为5,120×5,120),覆盖来自63个城市的多样化复杂场景,拥有丰富的上下文信息(包含100万个实例,共8个类别),并提供细粒度的标注(约800亿个手动标注像素),在数据规模、分辨率、场景多样性及标注精细度等方面均显著优于现有的所有UHR数据集,包括DeepGlobe、Inria Aerial、UDD等。此外,本文还提出了一种名为WSDNet的新型高效且有效的UHR分割框架,特别适用于处理具有超丰富上下文信息的场景。该框架创新性地引入多层级离散小波变换(Multi-level Discrete Wavelet Transform, DWT),在有效缓解计算负担的同时,保留了更多的空间细节;同时设计了小波平滑损失函数(Wavelet Smooth Loss, WSL),通过平滑约束实现对原始结构化上下文与纹理信息的精确重建。在多个UHR数据集上的实验结果表明,WSDNet在性能上达到了当前最先进水平。该数据集已开源,访问地址为:https://github.com/jankyee/URUR。