摘要
从人体中提取的软生物特征,包括衣物类型、发色及配饰等,是实现人员追踪与识别的重要信息。然而,由于服装样式、叠穿方式、形状与颜色的多样性,从图像中对这些特征进行语义分割仍对研究人员构成挑战。为应对上述问题,本文提出了一种名为EPYNET的服装分割框架。该框架基于单次多框检测器(Single Shot MultiBox Detector, SSD)与特征金字塔网络(Feature Pyramid Network, FPN),并采用EfficientNet作为主干网络。此外,该框架融合了数据增强方法与噪声抑制技术,以提升分割精度。为进一步支持研究,本文还构建了一个名为UTFPR-SBD3的新数据集,包含4,500张人工标注图像,涵盖18类物体类别及背景类别。与现有公开数据集中普遍存在类别分布不均的问题不同,UTFPR-SBD3确保每个类别至少包含100个实例,从而有效降低深度学习模型训练的难度。为此,本文还提出了一种新的数据集不平衡度量方法,旨在解决不同服装分割数据集之间难以进行公平比较的问题。该度量方法可有效识别背景类别的影响,以及小尺寸目标类别或实例数量过多或过少类别的干扰。在UTFPR-SBD3数据集上的实验结果表明,EPYNET在服装分割任务中显著优于当前主流方法,在多个公开数据集上均表现出优越性能。基于上述成果,我们认为该方法在软生物特征识别、人员监控、图像描述生成、服装推荐等众多实际应用场景中具有广阔的应用潜力。