
신경망 텍스트 생성 모델은 일반적으로 자기회귀적 언어 모델 또는 seq2seq 모델에 속한다. 단어를 순차적으로 샘플링하여 이전 단어에 조건부로 다음 단어를 생성하는 신경망 자기회귀 모델과 seq2seq 모델은 여러 기계 번역 및 요약 벤치마크에서 최상의 성능을 기록하고 있다. 이러한 벤치마크는 종종 검증 퍼플렉서티(Perplexity)로 정의되지만, 이는 샘플 품질의 직접적인 측정이 아니다. 언어 모델은 일반적으로 최대우도(likelihood) 기반으로 학습되며, 대부분의 경우 테이처 포싱(Teacher Forcing)을 사용한다. 테이처 포싱은 퍼플렉서티 최적화에 매우 적합하지만, 훈련 시 관측되지 않은 단어 시퀀스에 조건부로 텍스트를 생성해야 하는 실제 생성 과정과의 괴리로 인해 낮은 샘플 품질을 초래할 수 있다. 본 연구에서는 생성적 적대 신경망(GAN, Generative Adversarial Network)을 활용하여 샘플 품질을 향상시키는 방법을 제안한다. GAN은 생성자(generator)가 고품질의 샘플을 생성하도록 명시적으로 학습시키는 구조를 가지며, 이미지 생성 분야에서 높은 성공을 거두었다. 그러나 GAN은 원래 미분 가능한 값을 출력하도록 설계되었기 때문에 이산적인 언어 생성에는 어려움이 있다. 이를 해결하기 위해, 주변 문맥을 기반으로 누락된 텍스트를 채우는 액터-크리틱 조건부 GAN을 제안한다. 본 연구는 정성적 및 정량적 실험을 통해, 최대우도 기반 모델에 비해 더 현실적인 텍스트 샘플을 생성함을 입증한다.