
摘要
二值图像分割(Dichotomous Image Segmentation, DIS)近年来在高分辨率自然图像的高精度目标分割方面取得了显著进展。设计有效的DIS模型时,主要挑战在于如何平衡小感受野中高分辨率目标的语义分散和大感受野中的高精度细节损失。现有的方法依赖于繁琐的多编码器-解码器流和阶段,逐步完成全局定位和局部细化。人类视觉系统通过从多个视角观察感兴趣区域来捕捉这些区域。受此启发,我们将DIS建模为一个多视角物体感知问题,并提出了一种简洁的多视角聚合网络(Multi-View Aggregation Network, MVANet),该网络将远视图和近景图的特征融合统一到一个具有单编码器-解码器结构的流中。借助所提出的多视角互补定位和细化模块,我们的方法建立了跨多个视角的长距离、深层次视觉交互,使得近景图的特征能够专注于高度细长的结构。在流行的DIS-5K数据集上的实验表明,我们的MVANet在准确性和速度上均显著优于现有最先进方法。源代码和数据集将在 \href{https://github.com/qianyu-dlut/MVANet}{MVANet} 上公开发布。