빠르고 강력한 특징 선택: 오토인코더를 위한 에너지 효율적인 희소 학습의 강점

최근 고차원 데이터의 급격한 증가로 인해 고계산 비용과 메모리 요구량과 같은 주요 문제들이 발생하고 있다. 이러한 문제에 대응하기 위해, 데이터셋의 가장 관련성 있고 정보가 풍부한 특성(attribute)을 식별하는 특성 선택(feature selection) 기법이 제안되어 왔다. 그러나 기존의 대부분 특성 선택 방법들은 계산 효율성이 낮은 편이며, 비효율적인 알고리즘은 높은 에너지 소비를 초래하는데, 이는 계산 및 에너지 자원이 제한된 장치에서는 바람직하지 않다. 본 논문에서는 비지도 학습(unsupervised learning)을 위한 새로운 유연한 특성 선택 방법을 제안한다. 이 방법은 'QuickSelection'이라 명명되었으며, 희소 신경망(sparse neural networks)에서 뉴런의 강도(strength)를 특성 중요도를 측정하는 기준으로 도입한다. 이 기준은 희소 진화적 학습(sparse evolutionary training) 절차를 통해 학습된 희소 연결 디노이징 오토인코더(sparse denoising autoencoders)와 결합되어, 모든 입력 특성의 중요도를 동시에 도출한다. 기존의 연결에 이진 마스크(binary mask)를 적용하여 희소성을 모사하는 전통적인 접근 방식과 달리, 본 연구에서는 순수하게 희소한 방식으로 QuickSelection을 구현하였다. 이는 상당한 속도 향상과 메모리 사용량 감소를 가져왔다. 여러 기준 데이터셋(저차원 데이터셋 5개, 고차원 데이터셋 3개)에서 실험한 결과, 제안된 방법은 특성 선택 분야에서 널리 사용되는 다양한 기법들 중에서 분류 정확도와 군집 정확도, 실행 시간, 최대 메모리 사용량 사이의 최적의 균형을 달성하였다. 또한, 최신 오토인코더 기반 특성 선택 방법들 중에서 본 방법이 가장 낮은 에너지 소비를 요구함을 확인하였다.