HyperAIHyperAI
منذ 2 أشهر

FlexConv: التفافات نواة مستمرة مع أحجام نواة قابلة للتفاضل

David W. Romero; Robert-Jan Bruintjes; Jakub M. Tomczak; Erik J. Bekkers; Mark Hoogendoorn; Jan C. van Gemert
FlexConv: التفافات نواة مستمرة مع أحجام نواة قابلة للتفاضل
الملخص

عند تصميم شبكات العصبونات التلافيفية (CNNs)، يجب اختيار حجم النواة التلافيفية قبل التدريب. تظهر الدراسات الحديثة أن شبكات العصبونات التلافيفية تستفيد من أحجام مختلفة للنواة في طبقات مختلفة، ولكن استكشاف جميع المجموعات الممكنة غير عملي في الواقع. نهج أكثر كفاءة هو تعلم حجم النواة أثناء التدريب. ومع ذلك، فإن الأعمال الحالية التي تتعلم حجم النواة لديها نطاق ترددي محدود. تقوم هذه الأساليب بتوسيع النوى عن طريق الإبطاء، وبالتالي فإن التفاصيل التي يمكنها وصفها محدودة. في هذا العمل، نقترح FlexConv، وهي عملية تلافيفية جديدة يمكن من خلالها تعلم نوى تلافيفية ذات نطاق ترددي عالٍ وحجم قابل للتعلم بتكلفة معامل ثابتة. يُعد نموذج FlexNets قادرًا على تمثيل الارتباطات طويلة الأجل دون استخدام التقليص ويحقق أداءً رائدًا على عدة مجموعات بيانات متتابعة، ويتفوق على الأعمال الحديثة ذات الأحجام القابلة للتعلم للنوى، وهو تنافسي مع شبكات العصبونات المتبقية (ResNets) الأكثر عمقًا على مجموعات بيانات الصور المرجعية. بالإضافة إلى ذلك، يمكن نشر FlexNets بدقائق أعلى من تلك المشاهدة أثناء التدريب. لتجنب التشويه الطيفي (aliasing)، نقترح تقنيمة معامل نواة جديدة يمكن من خلالها السيطرة التحليلية على تردد النوى. أظهرت تقنيمة المعامل الجديدة لدينا قوة وصف أعلى وسرعة تقارب أسرع من التقنيمات الحالية. هذا يؤدي إلى تحسينات مهمة في دقة تصنيف البيانات.

FlexConv: التفافات نواة مستمرة مع أحجام نواة قابلة للتفاضل | أحدث الأوراق البحثية | HyperAI