مُحَوِّل النقطة

أحدثت الشبكات ذات الانتباه الذاتي ثورة في معالجة اللغة الطبيعية، وتحقق تقدماً ملحوظاً في مهام تحليل الصور، مثل تصنيف الصور وتحديد الكائنات. مستلهمين من هذا النجاح، نستكشف تطبيق الشبكات ذات الانتباه الذاتي على معالجة السحاب النقطية ثلاثية الأبعاد. قمنا بتصميم طبقات انتباه ذاتي للسحاب النقطية، واستخدمناها لبناء شبكات انتباه ذاتي لأداء مهام مثل التجزئة السيمانتيكية للمناظر، وتقطيع أجزاء الكائنات، وتصنيف الكائنات. يُعد تصميم "نقطة المحوّل" (Point Transformer) تحسيناً ملحوظاً على الأعمال السابقة عبر مختلف المجالات والمهام. على سبيل المثال، على مجموعة بيانات S3DIS الصعبة المخصصة للتجزئة السيمانتيكية للمناظر على نطاق واسع، حقق نموذج Point Transformer مقياس mIoU بلغ 70.4% في المنطقة 5، متفوّقاً على أقوى النماذج السابقة بـ 3.3 نقطة مئوية مطلقة، وعبور عتبة 70% في mIoU لأول مرة.