HyperAIHyperAI

Command Palette

Search for a command to run...

Self-positioning Point-based Transformer لفهم السحابات النقطية

Jinyoung Park Sanghyeok Lee Sihyeon Kim Yunyang Xiong Hyunwoo J. Kim

الملخص

أثبتت نماذج التحويل (Transformers) أداءً متفوقًا في مجموعة متنوعة من مهام رؤية الحاسوب بفضل قدرتها على التقاط الارتباطات طويلة المدى. ومع ذلك، فإن تطبيق هذه النماذج مباشرة على السحب النقطية (point clouds) يمثل تحديًا بسبب تكلفتها التربيعية حسب عدد النقاط. في هذا البحث، نقدم نموذج SPoTr (Self-Positioning point-based Transformer)، وهو مصمم لتقاط الظروف المحلية والعالمية للشكل مع تعقيد أقل. بشكل خاص، يتكون هذا الهندسة من انتباه ذاتي محلي وانتباه عالمي عبر نقاط التحديد الذاتي. تقوم نقاط التحديد الذاتي، التي يتم وضعها بشكل تكيفي بناءً على الشكل المدخل، بتقريب المعلومات المكانية والدلالية باستخدام انتباه منفصل لتحسين القوة التعبيرية. باستخدام نقاط التحديد الذاتي، نقترح آلية جديدة للاهتمام العالمي عبر السحب النقطية، مما يحسن قابلية توسيع الانتباه الذاتي العالمي عن طريق السماح لمودول الانتباه بحساب أوزان الانتباه باستخدام مجموعة صغيرة فقط من نقاط التحديد الذاتي. تظهر التجارب فعالية SPoTr في ثلاث مهام للسحب النقطية مثل تصنيف الأشكال وتقسيم الأجزاء وتقسيم المشهد. وبشكل خاص، حققت نموذجنا المقترحة زيادة في الدقة بنسبة 2.6% مقارنة بأفضل النماذج السابقة في تصنيف الأشكال باستخدام مجموعة بيانات ScanObjectNN. كما نقدم تحليلات نوعية لبيان قابلية الفهم لنقاط التحديد الذاتي. يمكن الوصول إلى كود SPoTr من خلال الرابط https://github.com/mlvlab/SPoTr.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
Self-positioning Point-based Transformer لفهم السحابات النقطية | مستندات | HyperAI