HyperAIHyperAI

Command Palette

Search for a command to run...

FlexConv: التفافات نواة مستمرة مع أحجام نواة قابلة للتفاضل

David W. Romero∗1, Robert-Jan Bruintjes∗2, Erik J. Bekkers3, Jakub M. Tomczak1, Mark Hoogendoorn1, Jan C. van Gemert2

الملخص

عند تصميم شبكات العصبونات التلافيفية (CNNs)، يجب اختيار حجم النواة التلافيفية قبل التدريب. تظهر الدراسات الحديثة أن شبكات العصبونات التلافيفية تستفيد من أحجام مختلفة للنواة في طبقات مختلفة، ولكن استكشاف جميع المجموعات الممكنة غير عملي في الواقع. نهج أكثر كفاءة هو تعلم حجم النواة أثناء التدريب. ومع ذلك، فإن الأعمال الحالية التي تتعلم حجم النواة لديها نطاق ترددي محدود. تقوم هذه الأساليب بتوسيع النوى عن طريق الإبطاء، وبالتالي فإن التفاصيل التي يمكنها وصفها محدودة. في هذا العمل، نقترح FlexConv، وهي عملية تلافيفية جديدة يمكن من خلالها تعلم نوى تلافيفية ذات نطاق ترددي عالٍ وحجم قابل للتعلم بتكلفة معامل ثابتة. يُعد نموذج FlexNets قادرًا على تمثيل الارتباطات طويلة الأجل دون استخدام التقليص ويحقق أداءً رائدًا على عدة مجموعات بيانات متتابعة، ويتفوق على الأعمال الحديثة ذات الأحجام القابلة للتعلم للنوى، وهو تنافسي مع شبكات العصبونات المتبقية (ResNets) الأكثر عمقًا على مجموعات بيانات الصور المرجعية. بالإضافة إلى ذلك، يمكن نشر FlexNets بدقائق أعلى من تلك المشاهدة أثناء التدريب. لتجنب التشويه الطيفي (aliasing)، نقترح تقنيمة معامل نواة جديدة يمكن من خلالها السيطرة التحليلية على تردد النوى. أظهرت تقنيمة المعامل الجديدة لدينا قوة وصف أعلى وسرعة تقارب أسرع من التقنيمات الحالية. هذا يؤدي إلى تحسينات مهمة في دقة تصنيف البيانات.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
FlexConv: التفافات نواة مستمرة مع أحجام نواة قابلة للتفاضل | مستندات | HyperAI