
초록
컴퓨터가 문서를 이해하여 이해도 질문에 답하는 것은 자연어 처리(NLP)의 핵심적인 목표이지만 아직 해결되지 않은 문제입니다. 이 문제를 기계 학습 시스템으로 해결하는 데 가장 큰 장애 요인은 인간이 주석을 단 데이터의 한정된 양입니다. Hermann 등 (2015)은 이 문제를 해결하기 위해 CNN과 Daily Mail 뉴스 기사와 그 요약 문장을 짝지어 100만 개 이상의 훈련 예제를 생성하고, 신경망이 이 작업에서 좋은 성능을 보일 수 있도록 훈련시킬 수 있음을 보여주었습니다. 본 논문에서는 이 새로운 읽기 이해 작업에 대해 철저한 검토를 수행합니다. 우리의 주요 목표는 이 작업을 잘 수행하기 위해 필요한 언어 이해의 깊이를 파악하는 것입니다. 우리는 한쪽에서는 작은 부분 집합의 문제들을 세심하게 수작업으로 분석하고, 다른 쪽에서는 간단하지만 정교하게 설계된 시스템들이 이러한 두 데이터셋에서 73.6%와 76.6%의 정확도를 얻을 수 있음을 보여서 이를 접근합니다. 이러한 결과는 현재 최신 연구 결과보다 7-10% 우수하며, 우리가 믿는 이 작업의 성능 상한선에 근접하고 있습니다.