
변분 오토인코더(Variational Auto-Encoders, VAEs)는 비지도 학습에 효과적인 접근 방식이다. 이들은 변분 추론(Variational Inference, VI)을 활용하여 잠재 변수 모델에서 확장 가능한 근사 사후 추론을 가능하게 한다. VAE는 입력 데이터를 받는 딥 신경망으로 구성된 인코더라 불리는 변분 가족을 가정한다. 이 인코더는 모든 관측치에 공유되며, 추론 비용을 효율적으로 감당하는 ‘할인’ 효과를 제공한다. 그러나 VAE의 인코더는 주어진 관측치와 그 관측치에 대한 의미를 유지하는 변환을 가한 경우에 서로 다른 잠재 표현으로 매핑하는 부정적인 성질을 지닌다. 이러한 인코더의 ‘일관성 부족’은 특히 후속 작업에서 학습된 표현의 품질을 저하시키며, 일반화 능력에도 부정적인 영향을 미친다. 본 논문에서는 VAE에서 일관성을 강제하기 위한 정규화 방법을 제안한다. 이 아이디어는 주어진 관측치에 조건부로 설정된 변분 분포와, 해당 관측치의 무작위적인 의미 보존 변환에 조건부로 설정된 변분 분포 사이의 클로이브-레이블러(Kullback-Leibler, KL) 발산을 최소화하는 것이다. 이 정규화 방법은 어떠한 VAE에도 적용 가능하다. 실험에서 우리는 여러 벤치마크 데이터셋에 대해 네 가지 다른 VAE 변형에 이 방법을 적용하였으며, 항상 학습된 표현의 품질을 향상시키고 일반화 성능도 개선하는 것으로 확인하였다. 특히, Nouveau Variational Auto-Encoder(NVAE)에 적용한 결과, MNIST 및 CIFAR-10 데이터셋에서 최신 기술 수준(SOTA)의 성능을 달성하였다. 또한 3차원 데이터에 본 방법을 적용한 결과, 후속 분류 작업에서의 정확도 측면에서 뛰어난 품질의 표현을 학습하는 것을 확인하였다.