摘要
在建筑与制造等工业活动中,佩戴安全帽对于避免意外事故至关重要。为确保安全规范的执行,可通过结合计算机视觉与深度学习技术,开发自动安全帽检测系统。然而,基于深度学习的安全帽检测模型通常需要大量标注训练数据。目前,文献中公开的安全帽数据集数量稀少,且多数数据集标注不完整,已标注的数据集类别也较为有限。本文提出了一种名为“安全帽数据集”(Safety HELmet dataset,简称SHEL5K)的新数据集,该数据集是SHD数据集的增强版本,包含5000张图像。SHEL5K数据集共包含六个完全标注的类别:安全帽、头部、戴安全帽的头部、戴安全帽的人、未戴安全帽的人以及人脸。该数据集在多个当前最先进的目标检测模型上进行了测试,包括YOLOv3(YOLOv3、YOLOv3-tiny、YOLOv3-SPP)、YOLOv4(YOLOv4与YOLOv4-pacsp-x-mish)、YOLOv5-P5(YOLOv5s、YOLOv5m、YOLOv5x)、基于Inception V2架构的Faster Region-based Convolutional Neural Network(Faster-RCNN)以及YOLOR。实验结果表明,各模型在SHEL5K数据集上的表现均优于以往基准,平均精度均值(mAP)有所提升。相较于其他安全帽数据集,SHEL5K具有显著优势:其图像数量适中但标注质量更高,类别更丰富,从而显著提升了安全帽检测的准确性和可靠性。