HyperAIHyperAI

Command Palette

Search for a command to run...

إعادة التفكير في التحويلات التبادلية العميقة: كيف تؤدي الارتباطات داخل النواة إلى تحسين MobileNets

Daniel Haase Manuel Amthor

الملخص

نُقدّم تحوّلات مُفصَّلة بالبنية التحتية (BSConv) كعناصر بناء فعّالة للغاية للشبكات العصبية التلافيفية (CNNs). تُستمدّ هذه الفكرة من تحليلات كمية لخصائص النوى (kernels) المستمدة من نماذج مدروسة، والتي تُظهر هيمنة الترابطات على طول المحور العمودي (العمق). استنادًا إلى نتائجنا، نُصاغ أساسًا نظريًا يُمكّننا من استخلاص تنفيذات فعّالة باستخدام طبقات قياسية فقط. علاوةً على ذلك، يقدّم نهجنا تفاصيل نظرية شاملة، وتأويلًا، وتبريرًا لاستخدام التحولات المفصّلة بالعمق (DSCs) بشكل عام، والتي أصبحت أساسًا لعدة هياكل شبكات حديثة. في النهاية، نكشف أن الهياكل القائمة على DSCs، مثل MobileNets، تعتمد ضمنيًا على ترابطات بين النوى (cross-kernel correlations)، في حين أن صيغتنا BSConv تقوم على ترابطات داخلية داخل النوى (intra-kernel correlations)، مما يسمح بفصل أكثر كفاءة للتحويلات التلافيفية العادية. أظهرت تجارب واسعة النطاق على مجموعات بيانات تصنيف كبيرة ودقيقة النسق أن BSConv تحسّن بشكل واضح ومستمر أداء MobileNets والهياكل الأخرى القائمة على DSCs دون إدخال أي تعقيد إضافي. وفي مجموعات البيانات الدقيقة النسق، تحقّق تحسينًا يصل إلى 13.7 نقطة مئوية. بالإضافة إلى ذلك، عند استخدامها كبديل مباشر للهياكل القياسية مثل ResNets، تتفوّق نسخ BSConv على نسخها الأصلية بنسبة تصل إلى 9.5 نقطة مئوية على مجموعة بيانات ImageNet. يمكن الوصول إلى الكود والنماذج عبر الرابط: https://github.com/zeiss-microscopy/BSConv.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp