HyperAIHyperAI

Command Palette

Search for a command to run...

نقاط إلى شرائح: تمكين استخدام الانتباه الذاتي لتمييز الأشكال ثلاثية الأبعاد

Axel Berg Magnus Oskarsson Mark O’Connor

الملخص

بينما أصبحت هندسة الترانسفورمر (Transformer) شائعة بشكل كبير في مجال تعلم الآلة، فإن تكييفها للاعتراف بالأشكال ثلاثية الأبعاد ليس بالأمر البسيط. نظرًا لتعقيدها الحسابي التربيعي، يصبح مشغل الانتباه الذاتي (self-attention) غير فعال بسرعة مع زيادة حجم مجموعة النقاط المدخلة. بالإضافة إلى ذلك، وجدنا أن آلية الانتباه تواجه صعوبة في إيجاد علاقات مفيدة بين النقاط الفردية على نطاق عالمي. من أجل التخفيف من هذه المشاكل، نقترح نهجًا ذا مرحلتين يُعرف بـ "الترانسفورمر داخل الترانسفورمر للنقاط" (Point-TnT)، والذي يجمع بين آليات الانتباه المحلية والعامة، مما يمكّن كلًا من النقاط الفردية ومساحات النقاط من الانتباه لبعضها البعض بشكل فعال. أظهرت التجارب في تصنيف الأشكال أن هذا النهج يقدم ميزات أكثر فائدة للمهام اللاحقة مقارنة بالترانسفورمر الأساسي، كما أنه أكثر كفاءة من الناحية الحسابية. بالإضافة إلى ذلك، قمنا أيضًا بتوسيع طريقتنا لتطابق الميزات لإعادة بناء المناظر، مما أثبت أنها يمكن استخدامها مع أنابيب العمل القائمة لإعادة بناء المناظر.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp