2달 전

변분 공정 오토인코더

Christos Louizos; Kevin Swersky; Yujia Li; Max Welling; Richard Zemel
변분 공정 오토인코더
초록

우리는 데이터에서 특정 방해 요소나 민감한 변동 요인에 대해 불변성을 가지면서도 가능한 한 많은 나머지 정보를 유지하는 표현 학습 문제를 조사합니다. 우리의 모델은 민감한 변동 요인과 잠재적 변동 요인 간의 독립성을 장려하는 사전 확률을 갖는 변분 오토인코딩 아키텍처를 기반으로 합니다. 이후의 처리 과정, 예를 들어 분류와 같은 작업은 이러한 정제된 잠재 표현 위에서 수행될 수 있습니다. 잔여 의존성을 제거하기 위해 우리는 "최대 평균 차이" (Maximum Mean Discrepancy, MMD) 측정을 기반으로 하는 추가적인 패널티 항을 도입합니다. 우리는 이러한 아키텍처가 데이터에서 효율적으로 훈련될 수 있는 방법을 논의하고, 실험을 통해 이 방법이 이전 연구보다 원하지 않는 변동 출처를 제거하면서도 정보가 풍부한 잠재 표현을 유지하는 데 더 효과적임을 보여줍니다.