HyperAIHyperAI
منذ 2 أشهر

Self-positioning Point-based Transformer لفهم السحابات النقطية

Park, Jinyoung ; Lee, Sanghyeok ; Kim, Sihyeon ; Xiong, Yunyang ; Kim, Hyunwoo J.
Self-positioning Point-based Transformer لفهم السحابات النقطية
الملخص

أثبتت نماذج التحويل (Transformers) أداءً متفوقًا في مجموعة متنوعة من مهام رؤية الحاسوب بفضل قدرتها على التقاط الارتباطات طويلة المدى. ومع ذلك، فإن تطبيق هذه النماذج مباشرة على السحب النقطية (point clouds) يمثل تحديًا بسبب تكلفتها التربيعية حسب عدد النقاط. في هذا البحث، نقدم نموذج SPoTr (Self-Positioning point-based Transformer)، وهو مصمم لتقاط الظروف المحلية والعالمية للشكل مع تعقيد أقل. بشكل خاص، يتكون هذا الهندسة من انتباه ذاتي محلي وانتباه عالمي عبر نقاط التحديد الذاتي. تقوم نقاط التحديد الذاتي، التي يتم وضعها بشكل تكيفي بناءً على الشكل المدخل، بتقريب المعلومات المكانية والدلالية باستخدام انتباه منفصل لتحسين القوة التعبيرية. باستخدام نقاط التحديد الذاتي، نقترح آلية جديدة للاهتمام العالمي عبر السحب النقطية، مما يحسن قابلية توسيع الانتباه الذاتي العالمي عن طريق السماح لمودول الانتباه بحساب أوزان الانتباه باستخدام مجموعة صغيرة فقط من نقاط التحديد الذاتي. تظهر التجارب فعالية SPoTr في ثلاث مهام للسحب النقطية مثل تصنيف الأشكال وتقسيم الأجزاء وتقسيم المشهد. وبشكل خاص، حققت نموذجنا المقترحة زيادة في الدقة بنسبة 2.6% مقارنة بأفضل النماذج السابقة في تصنيف الأشكال باستخدام مجموعة بيانات ScanObjectNN. كما نقدم تحليلات نوعية لبيان قابلية الفهم لنقاط التحديد الذاتي. يمكن الوصول إلى كود SPoTr من خلال الرابط https://github.com/mlvlab/SPoTr.

Self-positioning Point-based Transformer لفهم السحابات النقطية | أحدث الأوراق البحثية | HyperAI