
주제 모델은 텍스트의 표현을 학습하는 가장 인기 있는 방법 중 하나이지만, 주제 모델에 대한 어떠한 변경도 새로운 추론 알고리즘을 수학적으로 도출해야 하는 큰 과제가 있습니다. 이 문제를 해결하기 위한 유망한 접근 방식은 오토인코딩 변분 베이즈(AEVB)입니다. 그러나 실제 주제 모델에 AEVB를 적용하는 것은 어려웠습니다. 우리는 이 논문에서, 우리의 지식으로는 처음으로 효과적인 AEVB 기반 추론 방법을 제시하며, 이를 잠재 디리클레 할당(Latent Dirichlet Allocation, LDA)에 적용하여 Autoencoded Variational Inference For Topic Model (AVITM)이라고 명명하였습니다. 이 모델은 디리클레 사전 확률 분포와 구성 요소 붕괴로 인해 AEVB에 발생하는 문제들을 해결합니다. 우리는 AVITM이 전통적인 방법과 정확도에서는 일치하면서도 추론 시간이 훨씬 더 우수함을 확인하였습니다. 실제로 추론 네트워크 덕분에, 테스트 데이터에서 변분 최적화를 수행하는 데 필요한 계산 비용을 지불할 필요가 없음을 발견하였습니다. AVITM은 블랙박스 방식이므로 새로운 주제 모델에 쉽게 적용할 수 있습니다. 이를 극적으로 보여주기 위해, 우리는 LDA에서 혼합 모델을 전문가들의 곱셈(Product of Experts)으로 대체한 새로운 주제 모델인 ProdLDA를 제시합니다. LDA 코드에서 단 한 줄만 변경함으로써, ProdLDA가 붕괴된 깁스 샘플링(collapsed Gibbs sampling)을 통해 학습된 LDA보다 훨씬 더 해석 가능한 주제를 생성함을 확인하였습니다.