ECA-Net: انتباه قناة فعّال للشبكات العصبية التلافيفية العميقة

في الآونة الأخيرة، أظهر ميكانيكية الانتباه عبر القنوات إمكانات كبيرة في تحسين أداء الشبكات العصبية التلافيفية العميقة (CNNs). ومع ذلك، تركز معظم الطرق الحالية على تطوير وحدات انتباه أكثر تعقيدًا لتحقيق أداء أفضل، مما يؤدي حتمًا إلى زيادة تعقيد النموذج. لتجاوز التناقض بين تحسين الأداء وزيادة التعقيد، يقترح هذا البحث وحدة انتباه قناة فعالة (ECA)، التي تتضمن عددًا ضئيلًا جدًا من المعاملات مع تحقيق مكاسب واضحة في الأداء. من خلال تحليل وحدة الانتباه عبر القنوات في SENet، نُظهر تجريبيًا أن تجنب التقليل في الأبعاد أمر بالغ الأهمية لتعلم الانتباه عبر القنوات، وأن التفاعل المناسب بين القنوات يمكن أن يحافظ على الأداء مع تقليل كبير في تعقيد النموذج. لذلك، نقترح استراتيجية تفاعل محلي بين القنوات دون تقليل الأبعاد، والتي يمكن تنفيذها بكفاءة باستخدام الت convolution 1D. بالإضافة إلى ذلك، نطور طريقة لاختيار حجم النواة للـ 1D convolution بشكل تكيفي، مما يحدد مدى تغطية التفاعل المحلي بين القنوات. تُعد الوحدة المقترحة (ECA) فعالة وفعّالة في الوقت نفسه؛ فعلى سبيل المثال، تبلغ معاملات الوحدة المقترحة مقابل هيكل الأساس ResNet50 80 مقابل 24.37 مليون معامل، وتحتاج إلى 4.7e-4 GFLOPs مقابل 3.86 GFLOPs من العمليات الحسابية، مع تحقيق مكاسب في الأداء تزيد عن 2% من حيث دقة الـ Top-1. قمنا بتقييم الوحدة ECA بشكل واسع في مهام تصنيف الصور، وكشف الكائنات، والفصل الInstances، باستخدام هيكل أساسي من نوع ResNets وMobileNetV2. تُظهر النتائج التجريبية أن وحدتنا أكثر كفاءة، مع أداء متميز مقارنةً ببدائلها.