摘要
前景-背景分割多年来一直是研究热点。然而,传统模型在面对光照条件复杂多变的视频时,难以获得准确的分割结果。本文提出一种鲁棒性更强的模型,能够在极端昏暗或明亮的场景下,以及视频序列中持续变化的光照条件下,依然实现精确的前景提取。该目标通过一种三重多任务生成对抗网络(TMT-GAN)实现,该网络能够有效建模明暗图像之间的语义关联,并端到端地完成二值分割任务。本文的贡献主要体现在两个方面:首先,我们证明了通过联合优化生成对抗网络损失(GAN loss)与分割损失,网络能够同时学习生成与分割两个任务,二者相互促进、协同提升;其次,将不同光照条件下图像的特征融合至分割分支,显著提升了网络的整体性能。在极具挑战性的真实与合成基准数据集(ESI 和 SABS)上的对比实验表明,TMT-GAN 具有优异的鲁棒性,并在性能上优于当前最先进的方法。