주의 기반 다중 컨텍스트 가이드를 활용한 소량 샘플 세그멘테이션
소수 샘플 학습(few-shot learning)은 전통적인 딥러닝 방법이 막대한 데이터 양을 요구한다는 점에 기반하여 등장한 초기 연구 주제이다. 특히 세그멘테이션 작업에서는 픽셀 단위의 레이블링이 더 많은 노동력을 필요로 하므로, 레이블링된 데이터의 부족 문제는 더욱 심각해진다. 이 문제를 해결하기 위해, 지원 세트(지원 샘플)와 쿼리 세트 간의 다중 스케일 컨텍스트 특징을 통합함으로써 보다 효과적인 가이드라인을 제공하는 주의 기반 다중 컨텍스트 가이드(A-MCG) 네트워크를 제안한다. A-MCG는 세 가지 브랜치로 구성된다: 지원 브랜치, 쿼리 브랜치, 특징 융합 브랜치. A-MCG의 핵심 차별점은 지원 브랜치와 쿼리 브랜치 간의 다중 스케일 컨텍스트 정보를 효과적으로 통합하여 지원 세트로부터 보다 정교한 지침을 유도하는 것이다. 또한, 융합 브랜치에서는 공간 주의(spatial attention)를 도입하여 다양한 스케일의 컨텍스트 정보를 강조함으로써, 일회 학습(one-shot learning)에서의 자기 지도 학습(self-supervision) 성능을 향상시킨다. 다수 샘플 학습(multi-shot learning)의 융합 문제를 해결하기 위해, 순차적인 지원 특징을 공동으로 통합하는 Conv-LSTM을 활용하여 최종 정확도를 향상시켰다. 제안한 아키텍처는 PASCAL VOC12 데이터셋의 다양한 설정에서 미지 클래스에 대해 최신 기술 수준의 성능을 달성하였으며, 1샷 및 5샷 설정에서 mIoU 기준으로 이전 연구 대비 각각 1.1%, 1.4%의 상당한 성능 향상을 보였다.