
초록
주관적 편향 탐지는 선전 탐지, 콘텐츠 추천, 감성 분석 및 편향 중립화와 같은 응용 분야에서 매우 중요하다. 이러한 편향은 분열적인 표현과 문장, 사실에 대한 의심을 제기하며, 특정 진술의 진실성을 전제로 하는 방식으로 자연어 내에 내재된다. 본 연구에서는 위키백과 편집 기록에서 다양한 편향 사례를 제거한 데이터를 기반으로 한 위키 중립성 코퍼스(Wiki Neutrality Corpus, WNC)를 이용하여 BERT 기반 모델을 활용한 주관적 편향 탐지에 대한 포괄적인 실험을 수행하였다. 해당 데이터셋은 총 36만 개의 레이블링된 인스턴스를 포함하고 있으며, 본 연구에서는 기존 최고 성능 모델인 BERT_{large} 대비 F1 점수에서 5.6 포인트 향상된 성능을 보이는 BERT 기반 앙상블 모델을 제안한다.