HyperAIHyperAI

Command Palette

Search for a command to run...

الكمّية والتقليم لضغط الشبكات العصبية والتنظيم

Kimessha Paupamah Steven James Richard Klein

الملخص

تُعد الشبكات العصبية العميقة عادةً باهظة التكلفة من حيث الحوسبة لدرجة لا تسمح بتشغيلها في الزمن الفعلي على الأجهزة الاستهلاكية والDevices ذات الطاقة المنخفضة. في هذا البحث، نستكشف تقليل المتطلبات الحسابية والذاكرة للشبكات العصبية من خلال تقنيتي تقليل الشبكة (network pruning) والتكميم (quantisation). ونُقيّم فعالية هاتين التقنيتين على الشبكات الكبيرة مثل AlexNet مقارنةً بالهياكل المدمجة الحديثة مثل ShuffleNet وMobileNet. تُظهر نتائجنا أن تقنيتي تقليل الشبكة والتكميم تُقلّص حجم هذه الشبكات إلى أقل من نصف حجمها الأصلي، وتحسّن كفاءتها، خاصةً في حالة MobileNet حيث تم تحقيق تسريع بنسبة 7 أضعاف. كما نُظهر أن تقليل الشبكة، بجانب تقليل عدد المعلمات في الشبكة، يمكن أن يُسهم في معالجة مشكلة التعلم الزائد (overfitting).


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
الكمّية والتقليم لضغط الشبكات العصبية والتنظيم | مستندات | HyperAI