HyperAIHyperAI

Command Palette

Search for a command to run...

PRformer: المحول المتكرر الهرمي للتنبؤ بالسلسلة الزمنية متعددة المتغيرات

Yongbo Yu¹, Weizhong Yu¹, Feiping Nie¹, Xuelong Li²

الملخص

الآلية الذاتية للانتباه (self-attention) في هندسة الترانسفورمر، والتي تكون ثابتة بالنسبة لترتيب التسلسل، تتطلب تضمين المتجهات الموضعية لترميز الترتيب الزمني في تنبؤات السلاسل الزمنية. نعتقد أن هذا الاعتماد على المتجهات الموضعية يحد من قدرة الترانسفورمر على تمثيل السلاسل الزمنية بكفاءة، خاصة عند استخدام نوافذ استرجاع أطول. لمعالجة هذه المشكلة، نقدم نهجًا مبتكرًا يجمع بين متجهات الشبكة العصبية المتكررة الهرمية (Pyramid RNN embeddings - PRE) للسلاسل الزمنية الأحادية المتغير مع قدرة الترانسفورمر على نمذجة الارتباطات متعددة المتغيرات. يستخدم PRE طبقات انتقالية هرمية ذات بُعد واحد لبناء خصائص انتقالية متعددة المقاييس التي تحتفظ بالترتيب الزمني. بالإضافة إلى ذلك، تقوم الشبكات العصبية المتكررة (RNNs)، التي تُطبق فوق هذه الخصائص، بتعلم تمثيلات سلسلة زمنية متعددة المقاييس حساسة لترتيب التسلسل. يؤدي دمج هذا النهج في نماذج الترانسفورمر ذات آليات الانتباه إلى تحسينات كبيرة في الأداء. نقدم النموذج PRformer، وهو نموذج يدمج PRE مع مُشفِّر الترانسفورمر القياسي، ويظهر أداءً رائدًا على مجموعة متنوعة من بيانات العالم الحقيقي. يؤكد هذا الأداء فعالية نهجنا في الاستفادة من النوافذ الاسترجاع الطويلة ويشدد على الدور الحاسم للتمثيلات الزمنية القوية في تحقيق إمكانات الترانسفورمر القصوى للمهام التنبؤية. يمكن الوصول إلى الكود عبر هذا المستودع: \url{https://github.com/usualheart/PRformer}.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp