11일 전

아спект 터미널 추출에서 시퀀스-투-시퀀스 학습 탐구

{Xing Xie, Dehong Ma, Houfeng Wang, Fangzhao Wu, Sujian Li}
아спект 터미널 추출에서 시퀀스-투-시퀀스 학습 탐구
초록

_aspect term extraction (ATE)_는 문장 내에 존재하는 모든 aspect term을 식별하는 것을 목표로 하며, 일반적으로 시퀀스 레이블링 문제로 모델링된다. 그러나 시퀀스 레이블링 기반의 방법은 문장 전체의 전반적인 의미를 충분히 활용하지 못하고, 레이블 간의 의존 관계를 처리하는 데 한계가 있다. 이러한 문제를 해결하기 위해, 본 연구에서는 ATE를 시퀀스에서 시퀀스로의 학습(Sequence-to-Sequence, Seq2Seq) 문제로 공식화하는 방식을 탐구한다. 이 경우 입력 시퀀스는 단어로 구성되고, 출력 시퀀스는 레이블로 구성된다. 동시에, ATE에서 레이블이 단어와 일대일로 대응되는 특성에 맞게 Seq2Seq 학습을 적합시키기 위해, 디코더에 해당하는 단어 표현을 통합하는 게이트 단위 네트워크(gated unit networks)를 설계하였으며, 목표 단어의 인접 단어에 더 주의를 기울이기 위해 위치 인지형 어텐션(position-aware attention) 메커니즘을 도입하였다. 두 개의 데이터셋에서 수행한 실험 결과, 제안한 게이트 단위 네트워크와 위치 인지형 어텐션 메커니즘을 동반한 Seq2Seq 학습이 ATE에 효과적임을 확인할 수 있었다.

아спект 터미널 추출에서 시퀀스-투-시퀀스 학습 탐구 | 최신 연구 논문 | HyperAI초신경