
摘要
目前,语义分割在标准场景(如白天光照条件良好的场景)中表现出显著的效率和可靠性。然而,在面对不利条件(如夜间)时,语义分割的准确性会大幅下降。导致这一问题的主要原因之一是缺乏足够的夜间场景标注分割数据集。本文提出了一种基于生成对抗网络(Generative Adversarial Networks, GANs)的框架,以减轻在不利条件下进行语义分割时的准确性下降。为了弥合白天和夜间图像领域的差距,我们观察到相比于不利条件下的数据集,标准条件下的分割数据集数量较多,例如BDD和我们收集的ZJU数据集。我们的基于GAN的夜间语义分割框架包括两种方法。第一种方法是利用GAN将夜间图像转换为白天图像,从而可以使用已经在白天数据集上训练得较为稳健的模型进行语义分割。第二种方法是利用GAN将数据集中不同比例的白天图像转换为夜间图像,但保留其标签。通过这种方式,可以生成合成的夜间分割数据集,从而使模型能够在夜间条件下稳健运行。在实验中,后一种方法显著提升了夜间的性能,这一点通过使用交并比(Intersection over Union, IoU)和像素准确率(Pixel Accuracy, Acc)进行定量评估得到了验证。我们还展示了性能随合成夜间图像在数据集中所占比例的变化而变化的情况,并发现当合成夜间图像的比例达到最佳点时,模型在整个昼夜周期中的表现最为稳健。