11일 전

주관성 분석 과제를 위한 단어 임베딩 모델의 실증적 평가

{Shashank Shekhar, Priya Kamath, Geetha Maiya, Ritika Nandi}
초록

좋은 분류 결과는 표현 기술에 크게 의존한다는 점은 명백히 입증된 사실이다. 텍스트 분석 작업에 임하기 전에는 반드시 텍스트 표현을 수행해야 하는데, 이는 고도로 발전한 머신러닝 모델조차 보완하기 어려운 기초적인 기반을 마련하기 때문이다. 본 논문은 주관성 분석(Subjectivity Analysis)을 수행하기 위해 텍스트를 표현하는 다양한 모델들을 종합적으로 분석하고 정량적으로 평가하는 것을 목적으로 한다. 우리는 코넬 주관성 데이터셋(Cornell Subjectivity Dataset)을 대상으로 다양한 모델을 구현하였다. 특히 주목할 점은 BERT 언어 모델이 다른 모든 모델보다 훨씬 뛰어난 성능을 보였다는 점이며, 다만 다른 접근 방식들에 비해 계산 비용이 상당히 크다는 점이다. BERT 언어 모델의 미세조정(fine-tuning)을 통해 주관성 분석 과제에서 최신 기술 수준(SOTA, State-of-the-Art)의 성과를 달성하였다. 이는 새로운 연구 방향을 열어줄 수 있으며, 향후 BERT를 영감으로 삼아 주관성 분석에 특화된 전용 모델 개발로 이어질 가능성이 있다.

주관성 분석 과제를 위한 단어 임베딩 모델의 실증적 평가 | 최신 연구 논문 | HyperAI초신경