11일 전
ATP: AMRize Then Parse! 편제AMR를 활용한 AMR 구문 분석 향상
Liang Chen, Peiyi Wang, Runxin Xu, Tianyu Liu, Zhifang Sui, Baobao Chang

초록
개념 의미 표현(AMR)은 복합적인 의미(annotation)를 암묵적으로 포함하고 있기 때문에, 의미적으로 또는 형식적으로 관련된 보조 작업들은 AMR 구문 분석을 더 효과적으로 향상시킬 수 있을 것이라 가정한다. 우리는 다음과 같은 결과를 확인하였다. 1) 텍스트에서 AMR로의 변환 과정에서, 번역(MT)이나 요약(summarization)과 같은 다른 작업들에 비해, 의미 역할 표기(SRL)와 의존성 구문 분석(DP)이 훨씬 적은 데이터로도 더 큰 성능 향상을 가져온다. 2) AMR에 더 적합한 모델을 구축하기 위해서는 보조 작업의 데이터가 학습 전에 적절히 'AMR화'(AMRized)되어 의사 AMR(PseudoAMR) 형태로 변환되어야 한다. 얕은 수준의 구문 분석 작업에서 얻은 지식은 구조 변환을 통해 AMR 구문 분석으로 더 효과적으로 전이될 수 있다. 3) 다중 작업 학습(multitask learning)에 비해, 중간 작업 학습(intermediate-task learning)이 보조 작업을 AMR 구문 분석에 도입하는 데 더 효과적인 프레임워크이다. 실증적인 관점에서, 우리는 보조 작업을 효과적으로 활용하여 AMR 구문 분석 성능을 향상시키는 체계적인 방법을 제안한다. 광범위한 실험 결과, 본 방법은 특히 구조 관련 지표에서 다양한 벤치마크에서 새로운 최고 성능을 달성하였다.