2달 전

BERT를 활용한 추출적 요약의 미세 조정

Yang Liu
BERT를 활용한 추출적 요약의 미세 조정
초록

BERT는事前学習된 Transformer 모델로, 다수의 자연어 처리(NLP) 과제에서 획기적인 성능을 달성하였습니다. 본 논문에서는 추출적 요약을 위한 BERT의 간단한 변형 모델인 BERTSUM을 설명합니다. 우리 시스템은 CNN/Dailymail 데이터셋에서 최고 수준의 성능을 보여주며, 이전 최고 성능 시스템보다 ROUGE-L 지표에서 1.65 포인트 높은 결과를 얻었습니다. 우리의 결과를 재현하기 위한 코드는 https://github.com/nlpyang/BertSum 에서 확인할 수 있습니다.注:在翻译中,“事前学習”(预训练)是一个常见的术语,但在韩文中通常写作“사전 학습”。因此,正确的翻译应该是:BERT는 사전 학습된 Transformer 모델로, 다수의 자연어 처리(NLP) 과제에서 획기적인 성능을 달성하였습니다. 본 논문에서는 추출적 요약을 위한 BERT의 간단한 변형 모델인 BERTSUM을 설명합니다. 우리 시스템은 CNN/Dailymail 데이터셋에서 최고 수준의 성능을 보여주며, 이전 최고 성능 시스템보다 ROUGE-L 지표에서 1.65 포인트 높은 결과를 얻었습니다. 우리의 결과를 재현하기 위한 코드는 https://github.com/nlpyang/BertSum 에서 확인할 수 있습니다.

BERT를 활용한 추출적 요약의 미세 조정 | 최신 연구 논문 | HyperAI초신경