
초록
우리는 처음으로 단일 과정의 공지성 해결 모델을 소개하며, 이 모델이 구문 분석기나 수작업으로 설계된 언급 검출기를 사용하지 않음에도 불구하고 모든 이전 연구를 크게 능가함을 보입니다. 핵심 아이디어는 문서 내의 모든 범위를 잠재적 언급으로 직접 고려하고 각각에 대한 가능한 선구자(antecedents) 분포를 학습하는 것입니다. 이 모델은 맥락에 따라 변하는 경계 표현과 헤드 찾기 주의 메커니즘(head-finding attention mechanism)을 결합하여 범위 임베딩(span embeddings)을 계산합니다. 모델은 공지성 클러스터에서 금자 선구자 범위(gold antecedent spans)의 주변 확률을 최대화하도록 훈련되며, 잠재적 언급들의 과감한 제거를 가능하게 하는 요인으로 구성됩니다. 실험 결과, OntoNotes 벤치마크에서 1.5 F1 점수 상승과 5개 모델 앙상블로 3.1 F1 점수 상승을 보여주는 최고 수준의 성능을 달성하였음을 입증하였습니다. 이러한 성과는 외부 자원 없이 성공적으로 훈련된 첫 번째 접근 방식이라는 점을 감안하면 더욱 놀랍습니다.