
摘要
目标检测是智能交通系统的核心问题。近年来,基于单车激光雷达的三维目标检测技术取得了显著进展,表明其能够为智能体提供精确的位置信息,从而支持决策与路径规划。相较于单车感知,多视角车路协同感知在消除盲区、扩大感知范围等方面具有根本性优势,已成为当前研究热点。然而,现有协同感知方法多聚焦于提升融合机制的复杂度,却忽视了由于缺乏单视角轮廓信息所带来的基础性问题。为此,本文提出一种多视角车路协同感知系统——车与万物协同感知(Vehicle-to-Everything Cooperative Perception, V2X-AHD),旨在增强目标识别能力,尤其在车辆形状预测方面表现突出。首先,我们设计了一种异构非对称知识蒸馏网络,利用不同训练数据进行优化,通过多视角教师特征向单视角学生特征进行知识迁移,有效提升轮廓识别精度。针对点云数据稀疏的问题,提出Spara Pillar——一种基于稀疏卷积的轻量级特征提取骨干网络,显著减少模型参数量,同时增强特征提取能力。此外,引入多头自注意力机制(Multi-Head Self-Attention, MSA)实现单视角特征的高效融合,其轻量化设计使融合特征表达更加平滑、紧凑。在大规模开源数据集V2Xset上的实验结果表明,所提方法达到了当前最优性能。研究证实,V2X-AHD能够显著提升三维目标检测的准确性,并大幅降低网络参数数量,为车路协同感知研究提供了重要基准。本文相关代码已开源,地址为:https://github.com/feeling0414-lab/V2X-AHD。