Command Palette
Search for a command to run...
{B. V. K. Vijaya Kumar Yang Zou Zhiding Yu Jinsong Wang}

초록
최근의 심층 신경망은 다양한 의미 분할 작업에서 최고 성능을 달성하고 있다. 그러나 이러한 성과에도 불구하고, 레이블이 붙은 학습 데이터(또는 소스 데이터)와 관측되지 않은 테스트 데이터(또는 타겟 데이터) 사이에 큰 차이가 존재하는 실제 세계의 ‘와일드 작업(wild tasks)’에서는 여전히 도전 과제에 직면한다. 특히 이러한 차이는 종종 ‘도메인 갭(domain gap)’이라고 불리며, 표현 능력을 더 강화하는 것으로는 쉽게 해결되지 않는 상당한 성능 저하를 초래할 수 있다. 무 supervision 도메인 적응(UDA, Unsupervised Domain Adaptation)은 타겟 도메인의 레이블 없이 이러한 문제를 극복하고자 하는 접근법이다. 본 논문에서는 반복적인 자기 학습(self-training, ST) 절차를 기반으로 한 새로운 UDA 프레임워크를 제안한다. 이 프레임워크는 은닉 변수 손실 최소화 문제로 공식화되며, 타겟 데이터에 대해 가상 레이블을 반복적으로 생성하고, 생성된 레이블로 모델을 재학습하는 방식으로 해결할 수 있다. ST 기반으로, 가상 레이블 생성 과정에서 큰 클래스들이 점차 지배하게 되는 문제를 방지하기 위해 새로운 클래스 균형 자기 학습(CBST, class-balanced self-training) 프레임워크를 제안하고, 공간적 사전 지식(spatial priors)을 도입하여 생성된 레이블의 정확도를 개선한다. 광범위한 실험을 통해 제안된 방법들이 여러 주요 UDA 설정 하에서 최고 수준의 의미 분할 성능을 달성함을 확인하였다.
코드 저장소
벤치마크
| 벤치마크 | 방법론 | 지표 |
|---|---|---|
| image-to-image-translation-on-gtav-to | CBST | mIoU: 47.0 |
| semi-supervised-semantic-segmentation-on-23 | CBST (Range View) | mIoU (1% Labels): 35.7 mIoU (10% Labels): 50.7 mIoU (20% Labels): 52.7 mIoU (50% Labels): 54.6 |
| semi-supervised-semantic-segmentation-on-24 | CBST (Range View) | mIoU (1% Labels): 39.9 mIoU (10% Labels): 53.4 mIoU (20% Labels): 56.1 mIoU (50% Labels): 56.9 |
| semi-supervised-semantic-segmentation-on-25 | CBST (Range View) | mIoU (1% Labels): 40.9 mIoU (10% Labels): 60.5 mIoU (20% Labels): 64.3 mIoU (50% Labels): 69.3 |