11일 전

TNT-NLG, 시스템 1: 신경망 생성을 위한 대량의 커뮤니티 기반 데이터 증강을 위한 통계적 NLG 활용

{Marilyn A. Walker, Stephanie Lukin, Shubhangi Tandon, Shereen Oraby, Lena Reed}
초록

시퀀스 투 시퀀스 학습이 신경망 기반 기계 번역 시스템(NMT)에 성공적으로 적용된 이후(시츠케버 등, 2014), 이 기법이 다른 문제 영역에서 언어 생성에 어떻게 활용될 수 있을지에 대한 관심이 급증하고 있다. 자연어 생성(NLG) 분야에서는 의미 표현(MR)에서 자연어(NL) 문장을 단일 단계로 학습하고 생성하는 엔드투엔드(E2E) 신경망 모델에 대한 관심이 크게 높아졌다. 본 논문에서는 E2E NLG 챌린지에 제출한 우리의 첫 번째 시스템인 TNT-NLG 시스템 1을 소개한다. 이 시스템은 레스토랑 도메인의 의미 표현에서 자연어 표현을 생성하는 것을 목표로 하며, 훈련 데이터셋을 대폭 확장함으로써 성능을 향상시켰다. 본 시스템을 위해 Dusek 등(2016a)의 오픈소스 베이스라인 모델과 맥락 인지 신경망 언어 생성기 기반의 두 가지 모델을 개발하였다. E2E 생성 챌린지 데이터셋에서 제공하는 의미 표현과 자연어 쌍을 기반으로, PERSONAGE(Mairesse 및 Walker, 2010)라는 통계적 생성기를 활용하여 훈련 데이터의 규모를 확장하였으며, 확장된 데이터를 모델의 맥락 입력으로 사용하였다. 또한 자동 평가 지표와 인공 평가 지표를 활용한 평가 결과를 제시하고, 향후 연구 방향을 논의한다.

TNT-NLG, 시스템 1: 신경망 생성을 위한 대량의 커뮤니티 기반 데이터 증강을 위한 통계적 NLG 활용 | 최신 연구 논문 | HyperAI초신경