2달 전

개선된 의미 표현을 위한 트리 구조 장단기 기억 네트워크

Kai Sheng Tai; Richard Socher; Christopher D. Manning
개선된 의미 표현을 위한 트리 구조 장단기 기억 네트워크
초록

시간이 지남에 따라 시퀀스 정보를 보존하는 데 우수한 능력을 가지고 있는 Long Short-Term Memory (LSTM) 네트워크는 계산 단위가 더 복잡한 순환 신경망의 일종으로, 다양한 시퀀스 모델링 작업에서 강력한 결과를 얻었습니다. 지금까지 탐색된 유일한 LSTM 구조는 선형 체인입니다. 그러나 자연어는 문장을 구성하기 위해 단어들을 자연스럽게 결합하는 구문적 특성을 나타냅니다. 우리는 이 구조를 일반화하여 트리 구조 네트워크 위상에 적용할 수 있는 Tree-LSTM을 소개합니다. Tree-LSTMs는 두 가지 작업에서 모든 기존 시스템과 강력한 LSTM 베이스라인을 능가했습니다: 두 문장의 의미적 관련성 예측 (SemEval 2014, Task 1) 및 감정 분류 (Stanford Sentiment Treebank).

개선된 의미 표현을 위한 트리 구조 장단기 기억 네트워크 | 최신 연구 논문 | HyperAI초신경