
자기지도 학습 사전 훈련 기반의 액션 인식 기법은 뼈대 기반의 액션 인식 분야에서 큰 성공을 거두었다. 그러나 기존의 이러한 방법들은 운동 부분과 정적 부분을 동일하게 취급하며, 각각의 부분에 대해 적응형 설계를 하지 않아 액션 인식 정확도에 부정적인 영향을 미친다. 이에 따라 운동 부분과 정적 부분에 대해 적응형 액션 모델링을 실현하기 위해, 본 연구는 '액션릿 의존적 대조 학습 방법(ActCLR)'을 제안한다. 액션릿(Actionlet)은 인간의 뼈대에서 구분력 있는 하위 집합으로 정의되며, 운동 영역을 효과적으로 분해함으로써 보다 정교한 액션 모델링을 가능하게 한다. 구체적으로, 운동이 없는 정적 앵커(Anchor)와의 대조를 통해 비지도 방식으로 뼈대 데이터의 운동 영역을 추출하고, 이를 액션릿으로 활용한다. 이후 액션릿을 중심으로 운동 적응형 데이터 변환 방법을 설계한다. 액션릿 영역과 비액션릿 영역에 대해 각각 다른 데이터 변환을 적용함으로써, 다양한 특성을 도입하면서도 각 영역의 고유 특성을 유지한다. 한편, 운동 영역과 정적 영역 간의 특징 표현을 구분하여 구성하기 위해 의미 인식형 특징 풀링 방법을 제안한다. NTU RGB+D 및 PKUMMD 데이터셋을 대상으로 실시한 광범위한 실험 결과, 제안하는 방법이 뛰어난 액션 인식 성능을 달성함을 입증하였다. 추가적인 시각화 및 정량적 실험을 통해 본 방법의 효과성 또한 확인되었다. 본 연구의 프로젝트 웹사이트는 https://langlandslin.github.io/projects/ActCLR/ 에서 확인할 수 있다.