CONTRASTE: 측면 기반 프롬프트를 사용한 감독 대조적 사전 학습을 통한 측면 감정 트리플 추출

기존의 측면 감성 트리플 추출(Aspect Sentiment Triplet Extraction, ASTE) 연구들은 주로 이 작업을 위한 더 효율적인 미세 조정(fine-tuning) 기술 개발에 초점을 맞추고 있습니다. 반면, 우리의 목표는 여러 ABSA 작업의 하류 성능을 동시에 향상시키는 일반적인 접근 방식을 제안하는 것입니다. 이를 위해, 우리는 CONTRASTive 학습을 활용하여 ASTE 성능을 강화하는 새로운 사전 학습 전략인 CONTRASTE를 소개합니다. 우리는 주로 ASTE에 집중하지만, ACOS, TASD, AESC와 같은 다른 ABSA 작업에서 제안된 기술의 우위성을 입증하기도 합니다.주어진 문장과 그에 연관된 (측면, 의견, 감성) 트리플에 대해 먼저 측면 기반 프롬프트를 설계하고 해당 감성이 마스킹(masked)됩니다. 그런 다음, 마스킹된 용어들의 측면 인식 감성 표현(aspect-aware sentiment representations)에 대조적 학습(contrastive learning)을 적용하여 인코더-디코더 모델을 (사전)학습합니다. 이렇게 얻은 모델 가중치를 미세 조정(fine-tune)하기 위해, 우리는 기본 인코더-디코더 모델과 두 가지 보완적인 모듈인 태깅 기반 의견 용어 검출기(Opinion Term Detector)와 회귀 기반 트리플 카운트 추정기(Triplet Count Estimator)를 결합한 새로운 다중 작업 접근 방식을 제안합니다.네 개의 벤치마크 데이터셋에서 수행한 철저한 실험과 상세한 축소 연구(ablation study)는 우리가 제안한 각 구성 요소의 중요성을 확인하며, 새로운 최신 ASTE 결과를 달성하였습니다.