11일 전

BERT를 활용한 구두 및 서면 지침의 추상적 요약

{Bryan Au-Yeung, Alexandra Savelieva, Vasanth Ramani}
BERT를 활용한 구두 및 서면 지침의 추상적 요약
초록

대화형 언어의 요약은 자연스러운 흐름, 말의 어색함, 기타 서면 텍스트에서는 흔히 볼 수 없는 다양한 문제들로 인해 어려운 과제이다. 본 연구는 BERTSum 모델을 대화형 언어에 처음으로 적용한 사례를 제시한다. 우리는 정원 가꾸기, 요리, 소프트웨어 설정, 스포츠 등 다양한 주제를 다루는 설명형 영상의 추상적 요약을 생성한다. 어휘의 풍부함을 확보하기 위해 전이 학습(transfer learning)을 활용하여, 서면 및 구두 영어를 포함한 여러 대규모 다분야 데이터셋에서 사전 학습(pretrain)을 수행한다. 또한 음성 인식 시스템(ASR)의 출력 결과에서 문장 구분과 구두점 정보를 복원하기 위해 전처리 작업을 수행한다. 평가 결과는 How2 및 WikiHow 데이터셋을 대상으로 ROUGE 및 Content-F1 점수를 사용하여 측정하였으며, HowTo100M과 유튜브에서 수집한 데이터셋에서 무작위로 선택한 요약문들을 인간 평가자들이 평가하였다. 맹검 평가 결과, 모델이 인간 콘텐츠 제작자가 작성한 요약과 거의 동등한 텍스트의 자연스러움과 유용성을 달성하였다. 다양한 스타일과 주제를 가진 WikiHow 기사에 적용했을 때 현재 최고 수준의 기술(SOTA)을 초월하였으며, 전통적인 CNN/DailyMail 데이터셋에서는 성능 저하 없이 안정적인 성능을 보였다. 이 모델은 다양한 스타일과 도메인에 걸쳐 높은 일반화 능력을 갖추고 있어, 인터넷 콘텐츠의 접근성과 탐색 가능성 향상에 큰 잠재력을 지닌다. 향후 이 모델은 지능형 가상 비서의 기능으로 통합되어, 사용자의 요청에 따라 서면 및 구두 형식의 지침 콘텐츠 모두를 자동으로 요약할 수 있도록 기대된다.

BERT를 활용한 구두 및 서면 지침의 추상적 요약 | 최신 연구 논문 | HyperAI초신경