11일 전
오류를 범하는 것은 인간의 특성이나마, 람다도 그걸 배울 수 있다
Agnes Luhtaru, Taido Purason, Martin Vainikko, Maksym Del, Mark Fishel

초록
이 연구는 언어 모델(LM)을 활용한 인공 오류 생성(AEG)을 통해 문법 오류 수정(GEC) 성능을 향상시키는 방안을 탐구한다. 구체적으로, Llama 2 기반의 언어 모델을 오류 생성을 위해 미세조정(fine-tuning)한 결과, 인간이 생성한 오류와 유사한 합성 오류를 생성할 수 있음을 확인하였다. 이후 이러한 인공 오류를 활용해 GEC용 Llama 모델을 학습시켰으며, 테스트한 모든 언어(독일어, 우크라이나어, 에스토니아어)에서 기존 최고 성능 모델을 상회하는 결과를 얻었으며, F0.5 점수는 0.8에서 6포인트까지 향상되었다. 또한, 더 작은 시퀀스-투-시퀀스 모델을 미세조정하여 오류를 생성하거나, 대규모 상용 언어 모델(GPT-3.5 및 GPT-4)에 프롬프트를 제공하는 방식으로도 유의미한 합성 오류를 생성할 수 있음을 입증하였으며, 이는 오류 생성 모델의 성능 향상에 긍정적인 영향을 미친다.