HyperAIHyperAI

Command Palette

Search for a command to run...

التوحيد المُمتد للدُفعة

Chunjie Luo Jianfeng Zhan Lei Wang Wanling Gao

الملخص

أصبح التطبيع الدُفعي (Batch Normalization - BN) تقنية قياسية لتدريب الشبكات العميقة الحديثة. ومع ذلك، تتناقص فعاليته عندما يقل حجم الدفعة (batch size)، نظرًا لسوء تقدير الإحصائيات الدفعية. وهذا يعيق استخدام التطبيع الدُفعي في حالتين: 1) تدريب نماذج أكبر تتطلب دفعات صغيرة محدودة بالاستهلاك الذاكرة، و2) التدريب على الأجهزة المحمولة أو المدمجة التي تمتلك موارد ذاكرة محدودة. في هذا البحث، نقترح طريقة بسيطة ولكن فعالة تُسمى التطبيع الدُفعي الممتد (Extended Batch Normalization - EBN). بالنسبة لخرائط الميزات ذات التنسيق NCHW، يقوم التطبيع الدُفعي الممتد بحساب المتوسط على المحاور (N, H, W)، تمامًا كما في التطبيع الدُفعي، للحفاظ على الميزة الرئيسية لهذا الأخير. ولتخفيف المشكلة الناتجة عن حجم دفعة صغير، يقوم التطبيع الدُفعي الممتد بحساب الانحراف المعياري على المحاور (N, C, H, W)، مما يزيد من عدد العينات المستخدمة في حساب الانحراف المعياري. قارنا التطبيع الدُفعي الممتد مع التطبيع الدُفعي والتطبيع المجموعة (Group Normalization) على مجموعات بيانات MNIST، CIFAR-10/100، STL-10، وImageNet، على التوالي. أظهرت التجارب أن التطبيع الدُفعي الممتد يخفف من مشكلة التطبيع الدُفعي عند استخدام حجم دفعة صغير، مع تحقيق أداءً قريبًا جدًا من أداء التطبيع الدُفعي عند استخدام دفعات كبيرة.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp