11일 전

ATP: AMRize Then Parse! 편제AMR를 활용한 AMR 구문 분석 향상

Liang Chen, Peiyi Wang, Runxin Xu, Tianyu Liu, Zhifang Sui, Baobao Chang
ATP: AMRize Then Parse! 편제AMR를 활용한 AMR 구문 분석 향상
초록

개념 의미 표현(AMR)은 복합적인 의미(annotation)를 암묵적으로 포함하고 있기 때문에, 의미적으로 또는 형식적으로 관련된 보조 작업들은 AMR 구문 분석을 더 효과적으로 향상시킬 수 있을 것이라 가정한다. 우리는 다음과 같은 결과를 확인하였다. 1) 텍스트에서 AMR로의 변환 과정에서, 번역(MT)이나 요약(summarization)과 같은 다른 작업들에 비해, 의미 역할 표기(SRL)와 의존성 구문 분석(DP)이 훨씬 적은 데이터로도 더 큰 성능 향상을 가져온다. 2) AMR에 더 적합한 모델을 구축하기 위해서는 보조 작업의 데이터가 학습 전에 적절히 'AMR화'(AMRized)되어 의사 AMR(PseudoAMR) 형태로 변환되어야 한다. 얕은 수준의 구문 분석 작업에서 얻은 지식은 구조 변환을 통해 AMR 구문 분석으로 더 효과적으로 전이될 수 있다. 3) 다중 작업 학습(multitask learning)에 비해, 중간 작업 학습(intermediate-task learning)이 보조 작업을 AMR 구문 분석에 도입하는 데 더 효과적인 프레임워크이다. 실증적인 관점에서, 우리는 보조 작업을 효과적으로 활용하여 AMR 구문 분석 성능을 향상시키는 체계적인 방법을 제안한다. 광범위한 실험 결과, 본 방법은 특히 구조 관련 지표에서 다양한 벤치마크에서 새로운 최고 성능을 달성하였다.