17일 전
장면 해석을 위한 적응형 컨텍스트 네트워크
Jun Fu, Jing Liu, Yuhang Wang, Yong Li, Yongjun Bao, Jinhui Tang, Hanqing Lu

초록
최근 연구들은 다양한 수준의 맥락을 탐색함으로써 장면 분할 성능을 향상시키려는 시도를 하고 있으며, 일반적으로 모든 픽셀에 대해 동일하게 유용한 맥락을 활용할 수 있도록 설계된 컨볼루션 네트워크를 훈련한다. 그러나 본 논문에서는 각 이미지 내 특정 픽셀 또는 영역에 따라 맥락 요구사항이 달라진다는 관찰을 하였다. 이러한 관찰을 바탕으로, 각 픽셀의 맥락 요구에 따라 전역 맥락과 국소 맥락 간의 경쟁적 융합을 통해 픽셀 인식형 맥락을 포착하는 적응형 맥락 네트워크(Adaptive Context Network, ACNet)를 제안한다. 구체적으로, 주어진 픽셀에 대해 전역 특징과 해당 픽셀의 국소 특징 간의 유사도를 기반으로 전역 맥락 요구를 측정하며, 그 역수를 이용해 국소 맥락 요구를 측정할 수 있다. 본 논문에서는 이러한 두 가지 요구 측정을 각각 제안한 전역 맥락 모듈과 국소 맥락 모듈을 통해 모델링하여 적응형 맥락 특징을 생성한다. 또한, 여러 개의 이러한 모듈을 활용하여 네트워크의 다양한 계층에 적응형 맥락 블록을 구성함으로써 조사에서 세부 사항까지의 계층적 결과를 도출한다. 마지막으로, 광범위한 실험 평가를 통해 제안한 ACNet의 효과성을 입증하였으며, Cityscapes, ADE20K, PASCAL Context, COCO Stuff 등 네 가지 공개 데이터셋에서 새로운 최고 성능(SOTA)을 달성하였다.