2달 전

탐색을 통한 학습이 탐욕적인 Stack-LSTM 파서의 성능을 개선한다.

Miguel Ballesteros; Yoav Goldberg; Chris Dyer; Noah A. Smith
탐색을 통한 학습이 탐욕적인 Stack-LSTM 파서의 성능을 개선한다.
초록

우리는 Dyer 등(2015)의 탐욕적인 Stack-LSTM 의존성 분석기를 동적 오라클(Goldberg과 Nivre, 2013)을 사용한 탐색을 포함하는 훈련 절차를 지원하도록 개선하였습니다. 이 형태의 훈련은 훈련 시점에서 모델 예측을 고려하며, 오류가 없는 행동 기록을 가정하지 않는다는 점에서 차이가 있습니다. 이러한 훈련 방법은 영어와 중국어 모두에 대한 구문 분석 정확도를 향상시키며, 두 언어 모두 매우 강력한 결과를 얻었습니다. 우리는 확률론적 신경망에서 탐색을 포함한 훈련이 잘 작동하기 위해 필요한 몇 가지 수정 사항에 대해 논의합니다.

탐색을 통한 학습이 탐욕적인 Stack-LSTM 파서의 성능을 개선한다. | 최신 연구 논문 | HyperAI초신경