GaitSet: 보행을 집합으로 간주한 다중 시점 보행 인식에 관한 연구

걸음걸이는 원거리에서 인식할 수 있는 독특한 생체인식 특성으로, 범죄 예방, 법의학적 식별 및 사회 보안 분야에서 광범위한 응용 가능성을 가지고 있습니다. 기존의 걸음걸이 인식 방법들은 시간 정보를 유지하기 어려운 걸음걸이 템플릿을 사용하거나 불필요한 순차적 제약을 유지해야 하므로 걸음걸이 인식의 유연성이 손실되는 걸음걸이 시퀀스를 활용합니다. 본 논문에서는 새로운 관점을 제시하며, 걸음걸이를 독립적인 프레임들의 집합으로 간주합니다. 우리는 이 집합에서 신원 정보를 학습하는 새로운 네트워크인 GaitSet(걸음걸이 세트)을 제안합니다. 집합 관점에 기반하여, 우리의 방법은 프레임의 순서 변경에 영향을 받지 않으며, 다양한 시나리오(다양한 시점 각도, 다른 의상/물건 들고 걷기 조건 등)에서 촬영된 다른 동영상들의 프레임들을 자연스럽게 통합할 수 있습니다.실험 결과, 일반적인 걷기 조건 하에서 우리의 단일 모델 방법은 CASIA-B 걸음걸이 데이터셋에서 평균 1등 정확도 95.0%, OU-MVLP 걸음걸이 데이터셋에서는 87.1%의 정확도를 달성하였습니다. 이러한 결과는 최신의 인식 정확도를 나타내며, 다양한 복잡한 상황에서도 우리의 모델은 높은 견고성을 보여주었습니다. CASIA-B 데이터셋에서 가방을 들고 걷거나 코트를 입고 걷는 조건 하에서는 각각 87.2%와 70.4%의 정확도를 달성하였습니다. 이는 기존 최고 방법들보다 크게 우수한 성능입니다. 또한 본 연구에서 제시된 방법은 테스트 샘플에 포함된 프레임 수가 적더라도 만족스러운 정확도를 달성할 수 있으며, 예를 들어 CASIA-B 데이터셋에서 단 7개의 프레임으로 82.5%의 정확도를 얻었습니다.소스 코드는 https://github.com/AbnerHqC/GaitSet 에 공개되었습니다.