ACE: خبراء متكاملون شركاء لحل التعرف على التوزيع الطويل الذيل في حالة واحدة

تُحسّن الطرق أحادية المرحلة للاعتراف الطويل الذيل (long-tailed recognition) الأداء العام بطريقة "متناقضة" (seesaw)، أي إما التضحية بدقة الفئة السائدة (الرأس) لتحسين تصنيف الفئة النادرة (الذيل)، أو رفع دقة الفئة السائدة بشكل أكبر على حساب تجاهل الفئة النادرة. تجنبت الخوارزميات الحالية هذه المعضلة من خلال عملية تدريب متعددة المراحل: التدريب المسبق على مجموعة غير متوازنة، ثم التحسين الدقيق (fine-tuning) على مجموعة متوازنة. وعلى الرغم من تحقيقها أداءً واعدًا، إلا أنها حساسة جدًا لقدرة التعميم للنموذج المُدرَّب مسبقًا، كما أنها لا تُدمج بسهولة في مهام الرؤية الحاسوبية الأخرى مثل الكشف (detection) والتقسيم (segmentation)، حيث لا يُمكن تطبيق التدريب المسبق فقط على الفئات المصنفة. في هذه الورقة، نقترح خطة أحادية المرحلة للاعتراف الطويل الذيل تُسمى "الخبراء المتكاملون" (ally complementary experts - ACE)، حيث يُعتبر كل خبير (expert) خبيرًا متخصصًا في مجموعة فرعية تهيمن على تدريبه، ويكون متكاملًا مع الخبراء الآخرين في الفئات النادرة دون أن يتأثر بما لم يُرَ قط. صممنا مُحسِّنًا مُتكيفًا مع التوزيع (distribution-adaptive optimizer) لضبط معدل التعلم لكل خبير، مما يقلل من احتمال التعلم الزائد (over-fitting). وبلا الحاجة إلى تقنيات معقدة أو إضافات خاصة، يتفوق النموذج الأساسي (vanilla ACE) على أحدث طريقة من نوعها (SOTA) في المراحل الواحدة بنسبة 3-10% على مجموعات بيانات CIFAR10-LT وCIFAR100-LT وImageNet-LT وiNaturalist. كما أظهرت النتائج أن ACE هي أول طريقة تكسر القيود "المناوبة" (seesaw) من خلال تحسين دقة كل من الفئات الغالبة والقليلة في نفس المرحلة الواحدة. الكود والنماذج المدربة متاحة على: https://github.com/jrcai/ACE.