2달 전

Cloze-driven Pretraining of Self-attention Networks 클로즈 기반의 자기 주의 네트워크 사전 학습

Alexei Baevski; Sergey Edunov; Yinhan Liu; Luke Zettlemoyer; Michael Auli
Cloze-driven Pretraining of Self-attention Networks
클로즈 기반의 자기 주의 네트워크 사전 학습
초록

우리는 다양한 언어 이해 문제에서 상당한 성능 향상을 제공하는 양방향 트랜스포머 모델의 사전 학습을 위한 새로운 접근 방식을 제시합니다. 우리의 모델은 각 단어가 제거되고 나머지 텍스트를 바탕으로 예측해야 하는 클로즈 스타일의 단어 재구성 작업을 해결합니다. 실험 결과, GLUE 및 NER와 구문 분석 벤치마크에서 새로운 최고 수준의 성능 향상이 확인되었습니다. 이는 동시기에 소개된 BERT 모델과 일관성을 보입니다. 또한, 효과적인 사전 학습에 기여하는 여러 요인, 즉 데이터 도메인과 크기, 모델 용량, 그리고 클로즈 목적 함수의 변형 등에 대한 자세한 분석도 제시합니다.

Cloze-driven Pretraining of Self-attention Networks 클로즈 기반의 자기 주의 네트워크 사전 학습 | 최신 연구 논문 | HyperAI초신경