تعلم خبراء متعددين محددين حسب حجم التفصيل لتصنيف دقيق

نهدف إلى تقسيم فضاء المشكلة الخاص بالتعرف الدقيق إلى مناطق محددة. ولتحقيق ذلك، نطور إطارًا موحدًا يستند إلى مزيج من الخبراء. وبسبب القيود المفروضة على كمية البيانات المتاحة لمشكلة التعرف الدقيق، يُعد من غير الممكن تعلم خبراء متنوعين باستخدام استراتيجية تقسيم البيانات. ولحل هذه المشكلة، نعزز التنوّع بين الخبراء من خلال دمج استراتيجية تعلم متدرّجة للخبراء مع قيد مبني على انحراف كولبكار-ليبلر (Kullback-Leibler divergence). حيث تتعلم الاستراتيجية خبراء جددًا على مجموعة البيانات باستخدام المعرفة السابقة من الخبراء السابقين، وتُضَمّ هؤلاء الخبراء إلى النموذج تدريجيًا، بينما يُجبر القيد المُقدَّم الخبراء على إنتاج توزيعات تنبؤية متنوعة. ويؤدي هذا إلى دفع الخبراء لتعلم المهمة من جوانب مختلفة، مما يجعلهم متخصصين في مشكلات فرعية مختلفة. تُظهر التجارب أن النموذج الناتج يحسّن أداء التصنيف ويحقق أداءً يُعدّ الأفضل في مجاله على عدة مجموعات بيانات معيارية للتعرف الدقيق.