
초록
이 논문은 컨볼루션 아키텍처를 이용한 시계열 모델링 문제를 다시 탐구한다. 비록 컨볼루션과 순환 아키텍처 모두 시계열 예측 분야에서 오랜 역사를 지닌 바 있으나, 현재 딥러닝 커뮤니티의 대부분에서 일반적인 시계열 모델링은 순환 신경망(RNN)을 사용하는 것이 최적의 접근법이라고 여겨지고 있다. 본 논문의 목적은 이러한 가정을 재검토하는 것이다. 구체적으로, 현대 ConvNet 아키텍처의 특징인 확장(dilation)과 잔차 연결(residual connection)을 도입한 단순한 일반화된 시간적 컨볼루션 네트워크(Temporal Convolution Network, TCN)를 고려한다. 다양한 시계열 모델링 과제, 특히 순환 네트워크 평가를 위한 일반적인 벤치마크로 자주 사용되는 과제들에서 TCN은 기준 RNN 방법(LSTM, GRU, 일반 RNN)을 물론, 때로는 매우 특화된 접근법들보다도 뛰어난 성능을 보인다. 또한, RNN이 TCN보다 "무한한 기억력(infinite memory)"이라는 잠재적 장점이 있다는 점을 고려하더라도, 실제 적용에서는 이러한 장점이 크게 나타나지 않음을 보여준다. 즉, TCN은 실제로 순환 대응 모델보다 더 긴 효과적 과거 정보 크기를 가지는 것으로 나타났다. 종합적으로 본 논문은, 시계열 모델링의 기본 아키텍처로서 ConvNet을 다시 고려할 시기가 도래했을 수 있다고 주장한다.