HyperAIHyperAI
منذ 17 أيام

الانسيابيات النقطية المجمعة تقلل من عدد المعاملات في الشبكات العصبية التلافيفية

{Domenec Puig, Hatem Rashwan, Mohamed Abdel-Nasser, Santiago Romani, Joao Paulo Schwarz Schuler}
الملخص

في الشبكات العصبية التلافيفية العميقة (DCNNs)، يزداد عدد المعاملات في التحويلات النقطية بسرعة نظرًا لعملية الضرب بين عدد المرشحات وعدد قنوات الإدخال من الطبقة السابقة. ولإدارة هذا النمو، نقترح تقنية جديدة تُحسّن كفاءة المعاملات في التحويلات النقطية من خلال استخدام فروع متوازية، حيث تحتوي كل فرع على مجموعة من المرشحات وتعالج جزءًا من قنوات الإدخال. ولتجنب تدهور قدرة التعلم في الشبكات العصبية التلافيفية العميقة، نقترح تداخل مخرجات المرشحات من الفروع المختلفة في الطبقات المتوسطة للتحويلات النقطية المتتالية. ولإثبات فعالية التقنية المقترحة، تم تطبيقها على عدة شبكات عصبية عميقة حديثة، ومنها EfficientNet وDenseNet-BC L100 وMobileNet وMobileNet V3 Large. وتم مقارنة أداء هذه الشبكات مع وبدون التقنية المقترحة على مجموعات بيانات CIFAR-10 وCIFAR-100 وCropped-PlantDoc وOxford-IIIT Pet. وأظهرت النتائج التجريبية أن الشبكات العصبية التلافيفية العميقة التي تم تطبيق التقنية المقترحة عليها، عند تدريبها من الصفر، حققت دقة اختبار مشابهة للبنية الأصلية لـ EfficientNet وMobileNet V3 Large، مع توفير ما يصل إلى 90% من عدد المعاملات و63% من العمليات الحسابية ذات الفاصلة العائمة.