8일 전

L2CS-Net: 제약 없는 환경에서의 세밀한 시선 추정

Ahmed A.Abdelrahman, Thorsten Hempel, Aly Khalifa, Ayoub Al-Hamadi
L2CS-Net: 제약 없는 환경에서의 세밀한 시선 추정
초록

인간의 시선은 인간-로봇 상호작용 및 가상현실과 같은 다양한 응용 분야에서 중요한 정보로 활용된다. 최근 컨볼루션 신경망(CNN) 기반의 접근법이 시선 방향 예측 분야에서 두드러진 성과를 거두고 있다. 그러나 눈의 외형 특성, 조명 조건, 머리 자세 및 시선 방향의 다양성 등으로 인해 실외 환경에서의 시선 추정은 여전히 도전적인 문제로 남아 있다. 본 논문에서는 제약 없는 환경에서도 안정적으로 시선을 예측할 수 있는 강건한 CNN 기반 모델을 제안한다. 각 시선 각도를 별도로 회귀함으로써 각각의 각도 예측 정확도를 향상시켜 전반적인 시선 예측 성능을 개선하고자 한다. 또한, 각각의 각도에 대해 동일한 손실 함수를 두 개 사용함으로써 네트워크의 학습을 촉진하고 일반화 능력을 높이는 방식을 제안한다. 제안한 모델은 제약 없는 환경에서 수집된 두 가지 대표적인 데이터셋을 이용하여 평가되었으며, MPIIGaze 데이터셋에서는 3.92°, Gaze360 데이터셋에서는 10.41°의 최신 기술 수준(SOTA) 정확도를 달성하였다. 본 연구의 코드는 https://github.com/Ahmednull/L2CS-Net 에서 오픈소스로 공개된다.

L2CS-Net: 제약 없는 환경에서의 세밀한 시선 추정 | 최신 연구 논문 | HyperAI초신경