
다중 작업 학습(Multi-task learning, MTL)은 관련된 작업들을 효과적으로 학습하는 데 유용한 방법이지만, MTL 모델을 설계하기 위해서는 작업별로 고유한 파라미터를 얼마나 설정할지, 그리고 작업 간 공유할 파라미터를 어떻게 결정할지에 대한 판단이 필요하다. 본 연구에서는 명명된 실체 인식(Named Entity Recognition, NER)과 관계 추출(Relation Extraction, RE)을 동시에 학습하는 문제에 대해 이 문제를 탐구하고, 기존 연구보다 더 깊은 수준의 작업별 특화를 가능하게 하는 새로운 신경망 아키텍처를 제안한다. 특히, NER 및 RE 작업 모두에 대해 추가적인 작업별 양방향 RNN 레이어를 도입하고, 다양한 데이터셋에 대해 공유 레이어와 작업별 레이어의 수를 별도로 조정한다. ADE 데이터셋에서는 두 작업 모두 최고 성능(SOTA, State-of-the-art)을 달성하였으며, CoNLL04 데이터셋에서는 NER 작업에서 SOTA 성능을 기록하고 RE 작업에서도 경쟁력 있는 성능을 보였으며, 현재의 SOTA 아키텍처보다 학습 가능한 파라미터 수를 한 수준 이상 줄였다. 제거 실험(Ablation study)을 통해 추가된 작업별 레이어가 이러한 성능 향상에 필수적임을 확인하였다. 본 연구는 기존의 NER와 RE를 공동으로 학습하는 접근법이 작업별 특화를 과소평가하고 있음을 시사하며, 일반적인 MTL 접근법에서 공유 파라미터와 작업별 파라미터의 적절한 균형을 맞추는 것이 중요함을 입증한다.