HyperAIHyperAI

Command Palette

Search for a command to run...

SqueezeNet: دقة على مستوى AlexNet مع 50 مرة أقل من المعلمات وحجم نموذج يقل عن 0.5 ميجابايت

Forrest N. Iandola Song Han Matthew W. Moskewicz Khalid Ashraf William J. Dally Kurt Keutzer

الملخص

البحث العلمي الحديث في مجال الشبكات العصبية العميقة ركز بشكل أساسي على تحسين الدقة. بالنسبة لمستوى دقة معين، يمكن عادةً تحديد العديد من هياكل الشبكات العصبية العميقة (DNN) التي تحقق هذا المستوى من الدقة. عند وجود دقة مكافئة، فإن الهياكل الأصغر للشبكات العصبية العميقة تقدم ثلاث مزايا على الأقل: (1) تتطلب الشبكات العصبية العميقة الأصغر اتصالًا أقل بين الخوادم أثناء التدريب الموزع. (2) تتطلب الشبكات العصبية العميقة الأصغر نطاق ترددي أقل لتصدير نموذج جديد من السحابة إلى السيارة ذاتية القيادة. (3) تكون الشبكات العصبية العميقة الأصغر أكثر قابلية للتطبيق على أجهزة FPGA وغيرها من الأجهزة ذات الذاكرة المحدودة.لتقديم جميع هذه المزايا، نقترح هيكل شبكة عصبية عميقة صغير يُسمى SqueezeNet. يحقق SqueezeNet مستوى دقة مكافئ لـ AlexNet على مجموعة بيانات ImageNet مع 50 ضعفًا أقل من المعاملات. بالإضافة إلى ذلك، باستخدام تقنيات ضغط النماذج، تمكنا من ضغط SqueezeNet إلى أقل من 0.5 ميجابايت (أصغر بـ 510 مرة من AlexNet).يمكن تنزيل هيكل SqueezeNet هنا: https://github.com/DeepScale/SqueezeNet


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp