HyperAIHyperAI
منذ 3 أشهر

MoCaE: خليط الخبراء المُعدَّلة يُحسّن بشكل كبير الكشف عن الكائنات

Kemal Oksuz, Selim Kuzucu, Tom Joy, Puneet K. Dokania
MoCaE: خليط الخبراء المُعدَّلة يُحسّن بشكل كبير الكشف عن الكائنات
الملخص

دمج قدرات العديد من المُنبِّئات الحالية لتكوين مزيج من الخبراء (Mixture of Experts) الذي يفوق أجزائه الفردية طريقة فعّالة لتحسين الأداء دون الحاجة إلى تطوير هياكل جديدة أو تدريب نموذج من الصفر. ومع ذلك، نلاحظ بشكل مفاجئ أن الجمع العشوائي للمُنبِّئات الخاصة بالكشف عن الكائنات بطريقة مشابهة لـ Deep Ensembles غالبًا ما يؤدي إلى تدهور الأداء. نحدد أن السبب الرئيسي لهذا المشكل هو أن تنبؤات الخبراء لا تتطابق مع أدائهم الفعلي، ما يُعرف بـ "عدم التمحيص" (miscalibration). نتيجة لذلك، يهيمن المُنبِّئ الأكثر ثقة على التنبؤات النهائية، مما يمنع المزيج من الاستفادة بشكل مناسب من جميع التنبؤات الصادرة عن الخبراء. لحل هذه المشكلة، نقترح عند بناء مزيج الخبراء أن ندمج تنبؤاتهم بطريقة تعكس الأداء الفردي لكل خبير؛ ونحقق هذا الهدف من خلال تمهيد التنبؤات أولًا (أي تقييمها وتصحيحها) قبل تصفية وتحسين هذه التنبؤات. نُطلق على هذه الطريقة اسم "مزيج الخبراء المُمَحَّصين" (Mixture of Calibrated Experts)، ونُظهر فعاليتها من خلال تجارب واسعة النطاق على خمسة مهام مختلفة للكشف عن الكائنات باستخدام مجموعة متنوعة من المُنبِّئات، حيث نُظهر أن هذه الطريقة: (أ) تُحسّن أداء مُنبِّئات الكشف عن الكائنات على مجموعة بيانات COCO، وتحسّن أداء طرق التجزئة الحقيقية على LVIS بنسبة تصل إلى حوالي 2.5 نقطة في مؤشر AP؛ (ب) تحقق أفضل أداء مُسجّل على مجموعة بيانات COCO test-dev بـ 65.1 نقطة AP، وعلى DOTA بـ 82.62 نقطة AP₅₀؛ (ج) تتفوّق باستمرار على النماذج الفردية في مهام الكشف الحديثة مثل الكشف عن الكائنات في بيئة مفتوحة (Open Vocabulary Object Detection).