
소수 샘플 분할(few-shot segmentation)은 매우 적은 수의 레이블링된 샘플을 이용하여 미지의 객체 클래스를 효과적으로 분할할 수 있다는 점에서 최근 많은 주목을 받고 있다. 기존의 대부분의 접근 방식은 레이블링된 지원 이미지(annotated support image)를 특징 벡터로 인코딩하기 위해 마스크가 적용된 전역 평균 풀링(Global Average Pooling, GAP)을 사용한다. 그러나 이 방식은 평균 연산으로 인해 일부 구분 정보가 불가피하게 손실된다는 단점이 있다. 본 논문에서는 이러한 손실된 핵심 정보를 탐색하는 간단하면서도 효과적인 자기 주도 학습(self-guided learning) 방식을 제안한다. 구체적으로, 레이블링된 지원 이미지에 대해 초기 예측을 수행함으로써, 덮여 있는 전경 영역과 드러난 전경 영역을 각각 마스크가 적용된 GAP를 통해 주요 지원 벡터(primary support vector)와 보조 지원 벡터(auxiliary support vector)로 인코딩한다. 이때 주요 및 보조 지원 벡터를 통합함으로써 쿼리 이미지에 대한 더 나은 분할 성능을 달성할 수 있다. 1-샷 분할을 위한 본 연구의 자기 주도 모듈을 영감으로 삼아, 다중 샷 분할을 위한 교차 주도 모듈(cross-guided module)을 제안한다. 이 모듈은 고품질의 지원 벡터를 갖는 여러 레이블링된 샘플로부터의 예측을 융합하여 최종 마스크를 생성하며, 품질이 높은 예측이 더 큰 기여를 하도록 설계되었다. 이 모듈은 재학습 없이 추론 단계에서 최종 예측 성능을 향상시킨다. 광범위한 실험을 통해 제안한 방법이 PASCAL-5i 및 COCO-20i 데이터셋에서 모두 새로운 최고 성능(state-of-the-art)을 달성함을 입증하였다.