HyperAIHyperAI
منذ 2 أشهر

نمذجة الخلفية للتعلم التدريجي في التجزئة الدلالية

Cermelli, Fabio ; Mancini, Massimiliano ; Bulò, Samuel Rota ; Ricci, Elisa ; Caputo, Barbara
نمذجة الخلفية للتعلم التدريجي في التجزئة الدلالية
الملخص

رغم فعاليتها في مجموعة واسعة من المهام، تعاني الأنظمة العميقة من بعض القيود الهامة. بشكل خاص، هي عرضة للنسيان الكارثي، أي أنها تؤدي أداءً ضعيفًا عندما يُطلب منها تحديث نموذجها مع توفر فئات جديدة دون الحفاظ على مجموعة التدريب الأصلية. يتناول هذا البحث هذه المشكلة في سياق التجزئة الدلالية. تفشل الاستراتيجيات الحالية في هذه المهمة لأنها لا تأخذ بعين الاعتبار جانبًا خاصًا من التجزئة الدلالية: حيث أن كل خطوة تدريبية توفر شروحًا لمجموعة فرعية فقط من جميع الفئات الممكنة، فإن بكسلات الفئة الخلفية (أي البكسلات التي لا تنتمي إلى أي فئات أخرى) تعرض تحولًا في التوزيع الدلالي. في هذا العمل، نعيد النظر في طرق التعلم المتزايدة التقليدية، مقترحين إطار عمل جديد يستند إلى التقطير ويأخذ بعين الاعتبار هذا التحول بشكل صريح. بالإضافة إلى ذلك، نقدم استراتيجية جديدة لتهيئة معلمات المصنف، مما يمنع التنبؤات المتحيزة نحو الفئة الخلفية. نثبت فعالية نهجنا من خلال تقييم شامل على مجموعتي بيانات Pascal-VOC 2012 و ADE20K، حيث حققنا أداءً أفضل بكثير من أفضل طرق التعلم المتزايد المعروفة حاليًا.

نمذجة الخلفية للتعلم التدريجي في التجزئة الدلالية | أحدث الأوراق البحثية | HyperAI