SHEL5K: 안전 모자 탐지를 위한 확장된 데이터셋 및 벤치마킹
건설 및 제조 산업 활동에서 안전모 착용은 예기치 못한 사고를 방지하기 위해 매우 중요하다. 이러한 안전 수칙 준수는 다양한 컴퓨터 비전 및 딥러닝 기법을 활용한 자동 안전모 탐지 시스템 개발을 통해 보장할 수 있다. 딥러닝 기반의 안전모 탐지 모델을 개발하는 과정에서는 일반적으로 막대한 양의 학습 데이터가 필요하다. 그러나 기존 문헌에서 공개된 안전모 데이터셋은 매우 제한적이며, 대부분의 경우 완전한 레이블링이 이루어지지 않았거나, 레이블링된 데이터셋이라도 클래스 수가 적은 편이다. 본 연구에서는 기존 SHD 데이터셋의 개선 버전으로, 5,000장의 이미지를 포함한 Safety HELmet 데이터셋(SHEL5K)을 제안한다. 제안된 데이터셋은 안전모, 머리, 안전모 착용한 머리, 안전모 착용한 사람, 안전모 미착용 사람, 얼굴의 6개 완전 레이블링된 클래스로 구성되어 있다. 제안된 데이터셋은 YOLOv3(YOLOv3, YOLOv3-tiny, YOLOv3-SPP), YOLOv4(YOLOv4, YOLOv4pacsp-x-mish), YOLOv5-P5(YOLOv5s, YOLOv5m, YOLOv5x), Inception V2 아키텍처를 기반으로 한 Faster Region-based Convolutional Neural Network(Faster-RCNN), 그리고 YOLOR 등 다양한 최신 객체 탐지 모델에 대해 실험적으로 검증되었다. 다양한 모델에서의 실험 결과를 비교 분석한 결과, 평균 정밀도(mAP) 측면에서 향상된 성능이 확인되었다. SHEL5K 데이터셋은 이미지 수가 적지만 레이블 품질이 뛰어나며, 클래스 수가 더 많다는 점에서 기존 안전모 데이터셋 대비 우수한 특징을 지니고 있어, 안전모 탐지의 정확도 향상에 기여할 수 있다.