11일 전

ReGen: 사전 훈련된 언어 모델을 활용한 텍스트 및 지식 기반 생성을 위한 강화 학습

Pierre L. Dognin, Inkit Padhi, Igor Melnyk, Payel Das
ReGen: 사전 훈련된 언어 모델을 활용한 텍스트 및 지식 기반 생성을 위한 강화 학습
초록

텍스트에서 관련 지식 기반(KB)을 자동으로 구축하고, KB에서 의미적으로 유의미한 텍스트를 생성하는 것은 머신러닝 분야에서 오랫동안 목표로 여겨져 온 과제이다. 본 논문에서는 강화학습(RL)을 활용하여 텍스트와 그래프 간의 양방향 생성을 가능하게 하는 ReGen을 제안한다. 그래프 선형화를 통해 생성 방향에 관계없이 두 작업 모두 시퀀스에서 시퀀스로의 생성 문제로 재정의할 수 있으며, 이는 시퀀스 학습에 강화학습을 적용할 수 있도록 하여 모델 자체를 자신의 크리틱(critic)으로 활용하는 자기비판적 시퀀스 학습(Self-Critical Sequence Training, SCST)을 가능하게 한다. 우리는 WebNLG+ 2020 및 TekGen 데이터셋에서 SCST를 통한 강화학습의 활용이 그래프 및 텍스트 생성 성능에 긍정적인 영향을 미친다는 것을 광범위하게 검증하였다. 본 시스템은 WebNLG+ 2020 데이터셋에서 텍스트에서 그래프 생성 및 그래프에서 텍스트 생성이라는 두 가지 작업 모두에서 WebNLG 2020+ 챌린지에서 발표된 기존 결과를 크게 향상시켜 최신 기술(SOTA) 수준의 성과를 달성하였다.

ReGen: 사전 훈련된 언어 모델을 활용한 텍스트 및 지식 기반 생성을 위한 강화 학습 | 최신 연구 논문 | HyperAI초신경