17일 전

그래프 텍스트 생성을 위한 구조 정보 보존

Linfeng Song, Ante Wang, Jinsong Su, Yue Zhang, Kun Xu, Yubin Ge, Dong Yu
그래프 텍스트 생성을 위한 구조 정보 보존
초록

그래프에서 텍스트 생성 작업은 입력 그래프의 의미를 유지하는 문장을 생성하는 것을 목표로 한다. 현재 최고 수준의 모델들은 출력을 생성하는 과정에서 입력 그래프의 핵심 구조 정보를 혼동하거나 심지어 완전히 누락하는 중대한 결함을 가지고 있다. 본 연구에서는 이러한 문제를 해결하기 위해 입력 정보를 보존하도록 모델을 안내할 수 있는 풍부한 학습 신호를 활용하는 방안을 제안한다. 구체적으로, 입력 그래프의 서로 다른 측면(이하 '뷰')에 각각 집중하는 두 가지 유형의 자동에코딩 손실(autoencoding loss)을 도입한다. 이 손실들은 다중 작업 학습(multi-task training)을 통해 역전파되어 모델의 성능을 더욱 정교하게 보정한다. 그래프에서 텍스트 생성을 위한 두 가지 벤치마크에서 수행한 실험 결과, 제안하는 방법이 최첨단 기준 모델보다 우수함을 입증하였다. 본 연구의 코드는 \url{http://github.com/Soistesimmer/AMR-multiview}에서 공개되어 있다.