
摘要
自动驾驶车辆显然得益于360度传感器所提供的扩展视场(Field of View, FoV),然而当前的语义分割方法严重依赖于标注训练数据,而全景图像的标注数据却极为稀缺。本文从域自适应(domain adaptation)的角度出发,将全景语义分割任务置于一种新设置下:即标注训练数据来源于与全景图像分布不同的传统针孔相机图像。为实现这一目标,我们形式化定义了全景语义分割的无监督域自适应任务,并构建了DensePASS——一个全新的、密集标注的跨域全景分割数据集,专门用于研究从针孔相机到全景图像的域偏移问题。该数据集同时包含标注与未标注的360度图像,其中标注数据涵盖19个类别,明确对应源域(即针孔相机域)中的类别体系。由于数据驱动模型对数据分布变化尤为敏感,我们提出P2PDA——一种面向针孔相机到全景图像语义分割的通用框架,通过引入多种注意力增强型域自适应模块,有效应对域间差异,支持在输出空间、特征空间及特征置信度空间中的迁移学习。P2PDA结合了基于置信度值的不确定性感知自适应机制,该机制通过注意力头动态调节置信度,并与预测结果的不一致性进行协同优化。该框架在学习域间对应关系时促进上下文信息的交互,显著提升了以精度和效率为导向模型的自适应性能。大量实验证明,所提框架在多个指标上均显著超越现有的无监督域自适应方法及专门针对全景分割的现有方法。