
초록
우리는 BERT를 공통 참조 해결에 적용하여 OntoNotes(+3.9 F1) 및 GAP(+11.5 F1) 벤치마크에서 큰 개선을 이...',이 문장을 보다 자세히 번역하겠습니다.우리는 BERT를 공통 참조 해결에 적용하여 OntoNotes(+3.9 F1)와 GAP(+11.5 F1) 벤치마크에서 뚜렷한 성능 향상을 달성하였습니다. 모델 예측의 정성적 분석 결과, ELMo와 BERT-base에 비해 BERT-large가 관련되지만 서로 다른 실체(예: 대통령과 CEO)를 구분하는 데 특히 우수하다는 것을 확인할 수 있었습니다. 그러나 문서 수준의 맥락, 대화, 그리고 언급 재구성 모델링 측면에서는 아직 개선의 여지가 있습니다. 우리의 코드와 모델은 공개적으로 이용 가능합니다.