17일 전

Traffic Transformer: 시계열의 연속성과 주기성을 포착하는 교통 예측을 위한 모델

{Rui Zhu, Bo Yan, Gengchen Mai, Krzysztof Janowicz, Ling Cai}
초록

교통 예측은 다양한 규모에서 공간-시간적 의존성을 동시에 모델링하는 복잡성으로 인해 도전적인 문제이다. 최근 몇몇 하이브리드 딥러닝 모델들이 이러한 의존성을 포착하기 위해 개발되어 왔다. 이러한 접근 방식들은 일반적으로 공간적 의존성을 모델링하기 위해 합성곱 신경망(Convolutional Neural Networks, CNNs) 또는 그래프 신경망(Graph Neural Networks, GNNs)을 활용하고, 시간적 의존성을 학습하기 위해 순환 신경망(Recurrent Neural Networks, RNNs)을 사용한다. 그러나 RNN은 시계열 데이터의 순차적 정보만을 포착할 수 있을 뿐, 주기성(예: 주간 패턴)을 모델링하는 데 한계가 있다. 또한 RNN은 병렬 처리가 어렵기 때문에 학습 및 예측 과정의 효율성이 떨어진다. 본 연구에서는 시계열의 연속성과 주기성을 효과적으로 포착하고 공간적 의존성을 모델링할 수 있는 새로운 딥러닝 아키텍처인 Traffic Transformer를 제안한다. 본 연구는 기계 번역을 위한 Google의 Transformer 프레임워크에서 영감을 얻었다. 우리는 두 개의 실제 교통 데이터셋을 대상으로 광범위한 실험을 수행하였으며, 실험 결과 제안한 모델이 기준 모델들에 비해 상당한 성능 우위를 보임을 입증하였다.