
모바일 장치에서 의미 분할 모델을 적용하는 수요가 급속히 증가하고 있습니다. 현재 최신 네트워크는 매개변수의 양이 매우 많아 모바일 장치에 적합하지 않으며, 다른 메모리 용량이 작은 모델들은 분류 네트워크의 정신을 따르면서 의미 분할의 고유한 특성을 무시합니다. 이 문제를 해결하기 위해, 우리는 새로운 컨텍스트 가이드 네트워크(Context Guided Network, CGNet)를 제안합니다. CGNet은 경량이고 효율적인 의미 분할용 네트워크입니다. 먼저, 로컬 특징과 주변 컨텍스트의 결합 특징을 학습하고 전역 컨텍스트로 이를 더욱 개선하는 컨텍스트 가이드(Context Guided, CG) 블록을 제안합니다. CG 블록을 기반으로, 모든 단계에서 컨텍스트 정보를 포착하고 분할 정확도를 향상시키기 위해 특별히 설계된 CGNet을 개발하였습니다. 또한 CGNet은 매개변수의 수를 줄이고 메모리 용량을 절약하도록 세심하게 설계되었습니다. 동일한 매개변수 수 하에서 제안된 CGNet은 기존의 분할 네트워크보다 크게 우수한 성능을 보입니다. Cityscapes와 CamVid 데이터셋에 대한 광범위한 실험 결과는 제안된 접근 방식의 유효성을 확인하였습니다. 특히, 후처리나 다중 스케일 테스트 없이도 제안된 CGNet은 0.5M 미만의 매개변수로 Cityscapes에서 64.8%의 평균 IoU(mean IoU)를 달성하였습니다. 전체 시스템에 대한 소스 코드는 https://github.com/wutianyiRosun/CGNet에서 확인할 수 있습니다.