التوحيد المُمتد للدُفعة

أصبح التطبيع الدُفعي (Batch Normalization - BN) تقنية قياسية لتدريب الشبكات العميقة الحديثة. ومع ذلك، تتناقص فعاليته عندما يقل حجم الدفعة (batch size)، نظرًا لسوء تقدير الإحصائيات الدفعية. وهذا يعيق استخدام التطبيع الدُفعي في حالتين: 1) تدريب نماذج أكبر تتطلب دفعات صغيرة محدودة بالاستهلاك الذاكرة، و2) التدريب على الأجهزة المحمولة أو المدمجة التي تمتلك موارد ذاكرة محدودة. في هذا البحث، نقترح طريقة بسيطة ولكن فعالة تُسمى التطبيع الدُفعي الممتد (Extended Batch Normalization - EBN). بالنسبة لخرائط الميزات ذات التنسيق NCHW، يقوم التطبيع الدُفعي الممتد بحساب المتوسط على المحاور (N, H, W)، تمامًا كما في التطبيع الدُفعي، للحفاظ على الميزة الرئيسية لهذا الأخير. ولتخفيف المشكلة الناتجة عن حجم دفعة صغير، يقوم التطبيع الدُفعي الممتد بحساب الانحراف المعياري على المحاور (N, C, H, W)، مما يزيد من عدد العينات المستخدمة في حساب الانحراف المعياري. قارنا التطبيع الدُفعي الممتد مع التطبيع الدُفعي والتطبيع المجموعة (Group Normalization) على مجموعات بيانات MNIST، CIFAR-10/100، STL-10، وImageNet، على التوالي. أظهرت التجارب أن التطبيع الدُفعي الممتد يخفف من مشكلة التطبيع الدُفعي عند استخدام حجم دفعة صغير، مع تحقيق أداءً قريبًا جدًا من أداء التطبيع الدُفعي عند استخدام دفعات كبيرة.