إعادة التفكير في التحويلات التبادلية العميقة: كيف تؤدي الارتباطات داخل النواة إلى تحسين MobileNets

نُقدّم تحوّلات مُفصَّلة بالبنية التحتية (BSConv) كعناصر بناء فعّالة للغاية للشبكات العصبية التلافيفية (CNNs). تُستمدّ هذه الفكرة من تحليلات كمية لخصائص النوى (kernels) المستمدة من نماذج مدروسة، والتي تُظهر هيمنة الترابطات على طول المحور العمودي (العمق). استنادًا إلى نتائجنا، نُصاغ أساسًا نظريًا يُمكّننا من استخلاص تنفيذات فعّالة باستخدام طبقات قياسية فقط. علاوةً على ذلك، يقدّم نهجنا تفاصيل نظرية شاملة، وتأويلًا، وتبريرًا لاستخدام التحولات المفصّلة بالعمق (DSCs) بشكل عام، والتي أصبحت أساسًا لعدة هياكل شبكات حديثة. في النهاية، نكشف أن الهياكل القائمة على DSCs، مثل MobileNets، تعتمد ضمنيًا على ترابطات بين النوى (cross-kernel correlations)، في حين أن صيغتنا BSConv تقوم على ترابطات داخلية داخل النوى (intra-kernel correlations)، مما يسمح بفصل أكثر كفاءة للتحويلات التلافيفية العادية. أظهرت تجارب واسعة النطاق على مجموعات بيانات تصنيف كبيرة ودقيقة النسق أن BSConv تحسّن بشكل واضح ومستمر أداء MobileNets والهياكل الأخرى القائمة على DSCs دون إدخال أي تعقيد إضافي. وفي مجموعات البيانات الدقيقة النسق، تحقّق تحسينًا يصل إلى 13.7 نقطة مئوية. بالإضافة إلى ذلك، عند استخدامها كبديل مباشر للهياكل القياسية مثل ResNets، تتفوّق نسخ BSConv على نسخها الأصلية بنسبة تصل إلى 9.5 نقطة مئوية على مجموعة بيانات ImageNet. يمكن الوصول إلى الكود والنماذج عبر الرابط: https://github.com/zeiss-microscopy/BSConv.