
초록
최근 모델들은 의미 역할 태깅(Semantic Role Labeling, SRL) 작업에 문법 지식을 통합함으로써 상당한 성능 향상을 보여주었다. 본 논문에서는 새로운 방식으로 그래프 관계를 임베딩 형태로 입력하여, Transformer의 자기주의(self-attention) 메커니즘 내부에 문법 구조를 직접 인코딩하는 Syntax-aware Graph-to-Graph Transformer(SynG2G-Tr) 모델을 제안한다. 이 접근법은 문법 구조를 따르는 주의 패턴에 대해 부드러운 편향을 부여하면서도, 모델이 이러한 정보를 활용하여 대체적인 패턴을 학습할 수 있도록 유연성을 제공한다. 제안한 모델은 스팬 기반 및 의존성 기반 SRL 데이터셋 모두에서 평가되었으며, CoNLL 2005 및 CoNLL 2009 데이터셋에서 도메인 내(in-domain) 및 도메인 외(out-of-domain) 설정 모두에서 기존의 대안적 방법들을 능가하는 성능을 보였다.