DeepSat - 위성 영상용 학습 프레임워크

위성 영상 분류는 원격 감지, 컴퓨터 비전, 기계 학습의 교차점에 위치한 어려운 문제입니다. 위성 데이터에 내재된 높은 변동성 때문에 현재 대부분의 객체 분류 접근 방식이 위성 데이터셋을 처리하기에 적합하지 않습니다. 또한, 다중 클래스 라벨을 가진 단일 라벨링된 고해상도 데이터셋의 부족으로 인해 위성 영상 분석의 발전이 제약되어 왔습니다. 본 논문의 기여는 두 가지로 나뉩니다 - (1) 첫째, SAT-4와 SAT-6라는 두 개의 새로운 위성 데이터셋을 제시하며, (2) 둘째, 입력 영상에서 특징을 추출하고 이를 정규화하여 정규화된 특징 벡터를 딥 벨리프 네트워크(Deep Belief Network)에 전달하는 분류 프레임워크를 제안합니다. SAT-4 데이터셋에서 우리의 최고 성능 네트워크는 97.95%의 분류 정확도를 달성하며, 딥 벨리프 네트워크, 컨벌루션 신경망(Convolutional Neural Networks), 스택형 노이즈 제거 오토인코더(Stacked Denoising Autoencoders) 등 세 가지 최신 객체 인식 알고리즘보다 약 11% 우수한 성능을 보입니다. SAT-6에서는 93.9%의 분류 정확도를 달성하며 다른 알고리즘들보다 약 15% 우수한 성능을 보입니다. 랜덤 포레스트(Random Forest) 분류기와의 비교 연구는 전통적인 지도 학습 기법보다 비지도 학습 접근 방식의 우위성을 입증합니다. 분포분리기준(Distribution Separability Criterion)과 내재 차원 추정(Intrinsic Dimensionality Estimation)을 기반으로 한 통계적 분석은 우리의 접근 방식이 위성 영상에 대한 더 나은 표현을 학습하는 효과성을 실증적으로 증명합니다.