HyperAIHyperAI

Command Palette

Search for a command to run...

Transformer مُعزِّز عبري لتقسيم الحركات

Jiahui Wang Zhenyou Wang Shanna Zhuang Hui Wang

الملخص

تمّ اعتماد التباديل الزمنية (Temporal convolutions) كنمط مفضل في تقسيم الحركات، حيث تُعزّز المجالات المستقبلية الطويلة من خلال زيادة عدد طبقات التبديل. ومع ذلك، فإن الطبقات العالية تؤدي إلى فقدان المعلومات المحلية الضرورية للتعرف على الإطارات. ولحل هذه المشكلة، تم اقتراح بنية مشفرة-فكّر جديدة في هذه الورقة تُسمّى "مُحَوِّل التحسين المتبادل" (Cross-Enhancement Transformer). يمكن لنهجنا التعلّم الفعّال لتمثيل البنية الزمنية باستخدام آلية الانتباه المُتَفاعِلة ذاتيًا. حيث يتم دمج كل طبقة من خرائط الميزات التباديلية في المشفر مع مجموعة من الميزات في فكّر تم إنتاجها عبر الانتباه الذاتي. وبالتالي، يتم استخدام المعلومات المحلية والعالمية معًا في سلسلة من الحركات الإطاراتية في آنٍ واحد. بالإضافة إلى ذلك، تم اقتراح دالة خسارة جديدة لتعزيز عملية التدريب، حيث تُعاقب على أخطاء التقسيم الزائد. أظهرت التجارب أن إطار عملنا يحقق أداءً متفوقًا على مستوى الحالة الحالية (state-of-the-art) على ثلاث مجموعات بيانات صعبة: 50Salads، وGeorgia Tech Egocentric Activities، وقاعدة بيانات Breakfast.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
Transformer مُعزِّز عبري لتقسيم الحركات | مستندات | HyperAI