SqueezeNet: دقة على مستوى AlexNet مع 50 مرة أقل من المعلمات وحجم نموذج يقل عن 0.5 ميجابايت

البحث العلمي الحديث في مجال الشبكات العصبية العميقة ركز بشكل أساسي على تحسين الدقة. بالنسبة لمستوى دقة معين، يمكن عادةً تحديد العديد من هياكل الشبكات العصبية العميقة (DNN) التي تحقق هذا المستوى من الدقة. عند وجود دقة مكافئة، فإن الهياكل الأصغر للشبكات العصبية العميقة تقدم ثلاث مزايا على الأقل: (1) تتطلب الشبكات العصبية العميقة الأصغر اتصالًا أقل بين الخوادم أثناء التدريب الموزع. (2) تتطلب الشبكات العصبية العميقة الأصغر نطاق ترددي أقل لتصدير نموذج جديد من السحابة إلى السيارة ذاتية القيادة. (3) تكون الشبكات العصبية العميقة الأصغر أكثر قابلية للتطبيق على أجهزة FPGA وغيرها من الأجهزة ذات الذاكرة المحدودة.لتقديم جميع هذه المزايا، نقترح هيكل شبكة عصبية عميقة صغير يُسمى SqueezeNet. يحقق SqueezeNet مستوى دقة مكافئ لـ AlexNet على مجموعة بيانات ImageNet مع 50 ضعفًا أقل من المعاملات. بالإضافة إلى ذلك، باستخدام تقنيات ضغط النماذج، تمكنا من ضغط SqueezeNet إلى أقل من 0.5 ميجابايت (أصغر بـ 510 مرة من AlexNet).يمكن تنزيل هيكل SqueezeNet هنا: https://github.com/DeepScale/SqueezeNet