BatchFormer: تعلّم استكشاف العلاقات بين العينات لتعلم تمثيلات قوية

على الرغم من النجاح الكبير الذي حققته الشبكات العصبية العميقة، تبقى هناك العديد من التحديات في تعلم التمثيل العميق بسبب مشكلات نقص البيانات، مثل عدم توازن البيانات، والتوزيع غير المرئي، والانزلاق النطاقي (domain shift). وللتصدي لهذه المشكلات، تم تطوير مجموعة متنوعة من الأساليب التي تسعى إلى استكشاف العلاقات بين العينات بطريقة بسيطة (أي من منظور المدخلات أو دالة الخسارة)، لكنها فشلت في استكشاف البنية الداخلية للشبكات العصبية العميقة من أجل تعلم العلاقات بين العينات. مستلهمين من هذه الفجوة، نقترح تمكين الشبكات العصبية العميقة نفسها من القدرة على تعلم العلاقات بين العينات من كل دفعة صغيرة (mini-batch). وبشكل محدد، نقدم وحدة تحويل الدفعة (batch transformer module)، أو ما يُعرف بـ BatchFormer، والتي تُطبّق على بعد الدفعة في كل دفعة صغيرة لاستكشاف العلاقات بين العينات بشكل غير مباشر أثناء التدريب. وبهذا، يُمكّن الأسلوب المقترح من تعاون العينات المختلفة، حيث يمكن للعينات التي تنتمي إلى الفئات الشائعة (head-class) أن تسهم في تعلم الفئات النادرة (tail classes) في مهام التعرف على التوزيعات الطويلة الذيل (long-tailed recognition). علاوةً على ذلك، ولتقليل الفجوة بين مرحلتي التدريب والاختبار، نستخدم تصنيفًا مشتركًا بين الحالتين: مع أو بدون BatchFormer أثناء التدريب، مما يسمح بإزالة الوحدة عند الاختبار. أجرينا تجارب واسعة على أكثر من عشرة مجموعات بيانات، وحققت الطريقة المقترحة تحسينات كبيرة في تطبيقات نقص البيانات المختلفة، دون الحاجة إلى أي إضافات معقدة، وتشمل المهام: التعرف على التوزيعات الطويلة الذيل، التعلم الصفري المركب (compositional zero-shot learning)، التعميم النطاقي (domain generalization)، والتعلم التمييزي (contrastive learning). سيتم إتاحة الكود المصدر بشكل عام عبر الرابط التالي: https://github.com/zhihou7/BatchFormer.