17 天前

Traffic Transformer:捕捉时间序列的连续性与周期性以实现交通预测

{Rui Zhu, Bo Yan, Gengchen Mai, Krzysztof Janowicz, Ling Cai}
摘要

交通流量预测是一项具有挑战性的任务,其难点在于需在不同尺度上联合建模时空依赖关系。近年来,多种混合深度学习模型被提出以捕捉此类依赖关系。这类方法通常采用卷积神经网络(CNN)或图神经网络(GNN)建模空间依赖性,并借助循环神经网络(RNN)学习时间依赖性。然而,RNN仅能捕捉时间序列中的顺序信息,难以建模其周期性特征(如周周期模式)。此外,RNN难以实现并行化,导致训练与预测效率较低。为此,本文提出一种新型深度学习架构——Traffic Transformer,旨在有效捕捉时间序列的连续性与周期性,并建模空间依赖关系。该模型的设计灵感来源于谷歌提出的Transformer架构,该架构最初用于机器翻译任务。我们在两个真实世界交通数据集上进行了大量实验,结果表明,所提模型在预测性能上显著优于现有基线模型。