
초록
최근 고품질 대규모 영어 자료의 발전으로 영어 자동 텍스트 단순화(ATS, Automatic Text Simplification) 연구의 경계가 확장되고 있다. 그러나 다양한 언어에서 복잡한 문장과 단순한 문장 쌍을 포함하는 다양한 평가 기준이 부족한 탓에 다국어 텍스트 단순화에 관한 연구는 상대적으로 미흡한 실정이다. 본 논문에서는 12개의 서로 다른 언어에 걸쳐 총 27개의 자료를 포함하고 있으며, 복잡-단순 문장 쌍이 170만 개 이상 포함된 'MultiSim' 평가 벤치마크를 소개한다. 이 벤치마크는 보다 효과적인 다국어 텍스트 단순화 모델 및 평가 지표 개발을 촉진할 것으로 기대된다. 사전 훈련된 다국어 언어 모델을 활용한 MultiSim 기반 실험을 통해, 영어 외 언어 환경에서도 다국어 훈련이 놀라운 성능 향상을 가져오는 것으로 확인되었다. 특히 러시아어 모델이 저자원 언어로의 제로샷 다국어 전이(zero-shot cross-lingual transfer)에서 뛰어난 성능을 보였다. 또한 BLOOM-176b를 활용한 소량 샘플 프롬프팅(few-shot prompting)이 대부분의 언어에서 미세조정(fine-tuned) 모델을 능가하며, 참조 단순화 결과와 유사한 품질을 달성함을 입증하였다. 이러한 결과는 인간 평가를 통해 추가로 검증되었다.