
초록
사전에 학습된 가중치가 없고 데이터가 적은 경우 딥 신경망 학습은 더 많은 학습 반복 횟수가 필요하다는 것이 알려져 있다. 또한, 의미 분할 작업에서는 깊이 있는 모델이 얕은 모델보다 더 뛰어난 성능을 보인다는 점도 잘 알려져 있다. 따라서 우리는 깊이가 깊어도 효율적으로 학습이 가능한 U-Net의 개선 및 확장 가능한 버전인 EfficientSeg 아키텍처를 제안한다. 우리는 Minicity 데이터셋에서 EfficientSeg 아키텍처를 평가하여 동일한 파라미터 수(51.5% mIoU)를 사용했을 때 U-Net 기준 성능(40% mIoU)을 초과했다. 가장 성공적인 모델은 58.1%의 mIoU 성능을 기록하며 ECCV 2020 VIPriors 챌린지의 의미 분할 트랙에서 4위를 차지했다.