HyperAIHyperAI

Command Palette

Search for a command to run...

التجريد بالحقيبة ذات السعة المحدودة مع التبديد الداخلي

Yonathan Aflalo Asaf Noy Ming Lin Itamar Friedman Lihi Zelnik

الملخص

تقليل الشبكة العصبية يقلل من التكلفة الحسابية للشبكة المُفرطة المُعاملات لتحسين كفاءتها. تتفاوت الطرق الشائعة من التخفيف بناءً على القيمة المطلقة (1\ell_11-norm) إلى بحث البنية العصبية (NAS). في هذه الدراسة، نقترح طريقة جديدة للتخفيف تُحسّن من الدقة النهائية للشبكة المُخفّفة، وتمتص المعرفة من الطبقات الداخلية للشبكة الأصلية المُفرطة المُعاملات. ولتمكين هذه الطريقة، نُصِرُّ تخفيف الشبكة كمشكلة حقيبة الظهر (Knapsack Problem)، والتي تُحسّن التوازن بين أهمية الخلايا العصبية وتكاليفها الحسابية المرتبطة بها. ثم نقوم بتخفيف قنوات الشبكة مع الحفاظ على البنية عالية المستوى للشبكة. ونُعدّل الدقة النهائية للشبكة المُخفّفة تحت إشراف الشبكة الأصلية باستخدام المعرفة الداخلية للشبكة، وهي تقنية نسميها "نقل المعرفة الداخلية" (Inner Knowledge Distillation). تؤدي طريقة التخفيف هذه إلى نتائج مُتفوّقة على مستوى الحالة الحالية (state-of-the-art) على مجموعة بيانات ImageNet، وCIFAR-10، وCIFAR-100 باستخدام هيكل أساسي من نوع ResNet. ولتخفيف هياكل الشبكات المعقدة مثل التحويلات ذات الروابط الجانبية (skip-links) والتحويلات العميقة (depth-wise convolutions)، نقترح منهجية تجميع الكتل (block grouping) لمعالجة هذه الهياكل. وباستخدام هذه الطريقة، نُنتج هياكل مدمجة ذات نفس عدد العمليات الحسابية (FLOPs) كـ EfficientNet-B0 وMobileNetV3، ولكن بتحقيق دقة أعلى بـ 1% و0.3% على التوالي في مجموعة بيانات ImageNet، مع وقت تشغيل أسرع على وحدة معالجة الرسومات (GPU).


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp