هل تُحَوِّل الشبكات العميقة التماثلات عبر الفئات؟

لتحقيق تعميم جيد، يجب أن تتعلم النماذج الفاصلة أن تكون غير حساسة تجاه التحولات العرضية التي لا تغيّر فئة المدخل. تتميز العديد من المشكلات بتحولات عرضية "غير متعلقة بالفئة" والتي تُطبّق بنفس الشكل على جميع الفئات، مثل تغير الإضاءة وتغيير الخلفية في تصنيف الصور. يمكن للشبكات العصبية تعلّم هذه التماثليات عند توفر بيانات كافية، لكن العديد من مجموعات البيانات الواقعية تعاني من عدم توازن شديد بين الفئات، وتحتوي على عدد قليل جدًا من الأمثلة لمعظم الفئات. ولذلك نطرح السؤال التالي: إلى أي مدى تُنقل التماثليات غير المُتعلقة بالفئة التي تُتعلم من الفئات الكبيرة إلى الفئات الصغيرة؟ من خلال تجارب دقيقة، لاحظنا أن التماثل تجاه التحولات غير المُتعلقة بالفئة يظل يعتمد بشكل كبير على حجم الفئة، حيث تكون الشبكات أقل تماثلًا بشكل ملحوظ في الفئات الصغيرة. ويظل هذا الناتج صحيحًا حتى عند استخدام تقنيات موازنة البيانات، مما يشير إلى نقل ضعيف للتماثليات بين الفئات. تُقدّم نتائجنا تفسيرًا واحدًا لسبب ضعف أداء النماذج في التعميم على التوزيعات غير المتوازنة والطويلة الذيل (long-tailed). بناءً على هذا التحليل، نُظهر كيف يمكن لنهج توليدي (Generative Approach) لتعلم التحولات العرضية أن يساعد في نقل التماثليات بين الفئات وتحسين الأداء في مجموعة من معايير تصنيف الصور غير المتوازنة. يُمكن الوصول إلى الشفرة المصدرية لتجاربنا من خلال الرابط التالي: https://github.com/AllanYangZhou/generative-invariance-transfer.