
초록
과거 몇십 년 동안 얼굴 표현 인식은 활발한 연구 영역이었으며, 여전히 높은 클래스 내 변동성으로 인해 도전적인 주제입니다. 이 문제에 대한 전통적인 접근 방식은 SIFT, HOG 및 LBP와 같은 수작업 특징을 사용하고, 이미지나 비디오 데이터베이스에서 훈련된 분류기를 통해 진행됩니다. 이러한 대부분의 연구는 제어된 조건에서 촬영된 이미지 데이터셋에서는 비교적 잘 수행되지만, 더 많은 이미지 변동성과 부분적으로 보이는 얼굴을 포함하는 더 어려운 데이터셋에서는 성능이 저하됩니다.최근 몇 년간 여러 연구가 딥러닝 모델을 사용하여 얼굴 표현 인식을 위한 엔드투엔드 프레임워크를 제안하였습니다. 이러한 연구들은 성능이 개선되었음에도 불구하고, 여전히 크게 개선할 여지가 있는 것으로 보입니다.본 연구에서는 주의 기반 합성곱 네트워크(attentional convolutional network)를 활용한 딥러닝 접근 방식을 제안합니다. 이 방법은 얼굴의 중요한 부분에 집중할 수 있으며, FER-2013, CK+, FERG 및 JAFFE 등 여러 데이터셋에서 이전 모델들보다 유의미한 성능 향상을 달성하였습니다. 또한, 분류기의 출력을 기반으로 다양한 감정을 감지하기 위해 중요한 얼굴 영역을 찾는 시각화 기술도 사용하였습니다.실험 결과를 통해 우리는 다른 감정들이 얼굴의 서로 다른 부분에 민감하다는 것을 확인하였습니다.