HyperAIHyperAI
منذ 17 أيام

ScaleNAS: تعلّم واحد-مُجرّد للتمثيلات الواعية بالحجم لتمييز الصور

Hsin-Pai Cheng, Feng Liang, Meng Li, Bowen Cheng, Feng Yan, Hai Li, Vikas Chandra, Yiran Chen
ScaleNAS: تعلّم واحد-مُجرّد للتمثيلات الواعية بالحجم لتمييز الصور
الملخص

التنوع في الحجم بين أجزاء الجسم والأجسام المختلفة يُعدّ مشكلةً صعبةً في مهام التعرف البصري. تُركّز الدراسات الحالية عادةً على تصميم هيكل أساسي مخصص أو تطبيق البحث في الهيكل العصبي (NAS) لكل مهمة من أجل التصدي لهذه التحديات. ومع ذلك، فإن الدراسات الحالية تفرض قيودًا كبيرة على مساحة التصميم أو البحث. لحل هذه المشكلات، نقدّم ScaleNAS، وهي طريقة تعلم واحدة (one-shot) لاستكشاف تمثيلات واعية بحجم الصورة. تحلّ ScaleNAS عدة مهام في آن واحد من خلال البحث في تجميع الميزات متعددة المقاييس. وتستخدم ScaleNAS مساحة بحث مرنة تسمح بوجود عدد غير محدود من الكتل والدمج بين الميزات عبر المقاييس المختلفة. وللتغلب على التكلفة العالية للبحث الناتجة عن هذه المساحة المرنة، تطبّق ScaleNAS التعلم الواحد (one-shot) على شبكة فائقة متعددة المقاييس، باستخدام عينة مجمّعة وبحث تطوري. وبلا حاجة إلى إعادة تدريب، يمكن استخدام ScaleNet مباشرةً في مهام التعرف البصري المختلفة بنتائج متفوّقة. استخدمنا ScaleNAS لبناء نماذج عالية الدقة لمهامين مختلفتين: ScaleNet-P للتقدير الوظيفي للوضع البشري، وScaleNet-S للتقطيع الدلالي. وتفوقت ScaleNet-P وScaleNet-S على الطرق المبنية يدويًا والطرق المستندة إلى NAS في كلا المهمتين. عند تطبيق ScaleNet-P على تقدير وضع الإنسان من الأسفل (bottom-up human pose estimation)، تفوقت على أعلى النماذج الحالية (HigherHRNet). وبشكل خاص، حقّقت ScaleNet-P4 نسبة 71.6% من الدقة (AP) على مجموعة اختبار COCO test-dev، مما يُمثّل نتيجةً جديدةً لحالة الفن (state-of-the-art).

ScaleNAS: تعلّم واحد-مُجرّد للتمثيلات الواعية بالحجم لتمييز الصور | أحدث الأوراق البحثية | HyperAI