
기반별 감성 분석(Aspect-Based Sentiment Analysis, ABSA)은 감성과 그 대상(sentiment target)을 추출하는 작업을 다룹니다. 신경망의 일반화 성능을 향상시키기 위해 이 작업에 대한 레이블이 부여된 데이터를 수집하는 것은 인력과 시간이 많이 소요되는 과정입니다. 이를 대체하기 위해, 임베딩 공간에서 적대적(adversarial) 과정을 통해 실제 세계 예시와 유사한 데이터를 인공적으로 생성할 수 있습니다. 이러한 예시는 실제 문장은 아니지만, 신경망이 더 강건하게 작동하도록 하는 정규화(regularization) 방법으로서 효과가 입증된 바 있습니다. 본 연구에서는 Goodfellow 등(2014)이 제안한 적대적 훈련(adversarial training) 기법을 Xu 등(2019)이 제안한 후 훈련된 BERT(BERT-PT) 언어 모델에 적용하여 감성 분석의 두 주요 과제인 기반 추출(Aspect Extraction)과 기반 감성 분류(Aspect Sentiment Classification)에 활용하였습니다. 사전 실험을 통해 후 훈련된 BERT의 성능을 개선한 후, ABSA에 적대적 훈련을 활용하기 위한 새로운 아키텍처인 BERT 적대적 훈련(BERT Adversarial Training, BAT)을 제안합니다. 제안된 모델은 두 과제에서 모두 후 훈련된 BERT보다 우수한 성능을 보였습니다. 본 연구를 통해, 적대적 훈련을 ABSA에 적용한 최초의 사례임을 확인할 수 있습니다.