
초록
많은 자연어 처리(NLP) 작업에서 주로 사용되는 접근 방식은 순환 신경망, 특히 LSTM(Long Short-Term Memory)과 합성곱 신경망입니다. 그러나 이러한 구조는 컴퓨터 비전 분야에서 최신 기술을 선도하고 있는 깊은 합성곱 네트워크에 비해 상대적으로 얕습니다. 본 연구에서는 텍스트 처리를 위해 문자 수준에서 직접 작동하며, 작은 합성곱 및 풀링 연산만을 사용하는 새로운 아키텍처(VDCNN, Very Deep Convolutional Neural Network)를 제시합니다. 이 모델의 성능이 깊이에 따라 향상됨을 보일 수 있으며, 최대 29개의 합성곱 계층을 사용하여 여러 공개 텍스트 분류 작업에서 최신 기술보다 우수한 결과를 보고합니다. 우리所知에 따르면, 이는 매우 깊은 핈성곱 네트워크가 텍스트 처리에 처음으로 적용된 사례입니다.注:最后一句中的“我们所知”在韩文中通常会翻译为“우리가 알고 있는 한”或“우리의 지식으로서”,这里选择了一个较为简洁的表达方式。以下是修正后的版本:우리의 지식으로서, 이는 매우 깊은 합성곱 네트워크가 텍스트 처리에 처음으로 적용된 사례입니다.