HyperAIHyperAI
منذ 17 أيام

Transformer المرور: اكتشاف الاستمرارية والدورية في السلاسل الزمنية للتنبؤ بحركة المرور

{Rui Zhu, Bo Yan, Gengchen Mai, Krzysztof Janowicz, Ling Cai}
الملخص

يُعد تنبؤ حركة المرور مشكلة صعبة نظرًا لتعقيد نمذجة الاعتماديات الزمانية-المكانية المترابطة على مقياسين مختلفين في نفس الوقت. في الآونة الأخيرة، تم تطوير عدة نماذج هجينة قائمة على التعلم العميق لالتقاط هذه الاعتماديات. وغالبًا ما تعتمد هذه النماذج على الشبكات العصبية التلافيفية (CNNs) أو الشبكات العصبية الرسومية (GNNs) لنمذجة الاعتمادية المكانية، بينما تعتمد على الشبكات العصبية التكرارية (RNNs) لتعلم الاعتمادية الزمنية. ومع ذلك، فإن الشبكات التكرارية قادرة فقط على التقاط المعلومات التسلسلية في السلاسل الزمنية، وتعجز عن نمذجة دورتها (مثل الأنماط الأسبوعية). علاوة على ذلك، يصعب توازي تشغيل الشبكات التكرارية، مما يجعل عملية التدريب والتنبؤ أقل كفاءة. في هذا العمل، نقترح معمارية تعلم عميق جديدة تُسمى Traffic Transformer، تهدف إلى التقاط الاستمرارية والدورية في السلاسل الزمنية، ونمذجة الاعتمادية المكانية. وقد استلهمت هذه الدراسة من إطار عمل Transformer الخاص بـ Google في ترجمة الآلات. أجرينا تجارب واسعة على مجموعتين حقيقيتين من بيانات حركة المرور، وأظهرت النتائج أن نموذجنا يتفوق على النماذج الأساسية بفارق كبير.