HyperAIHyperAI

Command Palette

Search for a command to run...

بحث عشوائي في هندسة الشبكات العصبية (SNAS): Stochastic Neural Architecture Search

Sirui Xie Hehui Zheng Chunxiao Liu Liang Lin

الملخص

نقترح البحث العشوائي عن العمارة العصبية (SNAS)، وهو حل اقتصادي من البداية إلى النهاية للبحث عن العمارة العصبية (NAS) يدرب معلمات العمليات العصبية ومعلمات توزيع العمارة في نفس دورة التراجع الخلفي، مع الحفاظ على شمولية وقابلية الاشتقاق لخط أنابيب NAS. في هذا العمل، يتم إعادة صياغة NAS كمشكلة تحسين على معلمات توزيع مشترك للم공 الفراغي داخل الخلية. للاستفادة من المعلومات التدرجية في الخسارة القابلة للاشتقاق بشكل عام للبحث عن العمارة، تم اقتراح تدرج بحث جديد. نثبت أن هذا التدرج البحثي يحسن نفس الهدف الذي يحسن NAS المستند إلى التعلم التعزيزي، ولكنه يوزع الائتمانات على القرارات الهيكلية بكفاءة أكبر. يتم تعزيز هذا التوزيع للائتمان بمكافأة قابلة للتفكيك محليًا لفرض قيد فعال للموارد. في التجارب على CIFAR-10، يستغرق SNAS عددًا أقل من الدورات لاكتشاف عمارة خلية ذات دقة رائدة عالميًا مقارنة بـ NAS المستند إلى التطور غير القابل للاشتقاق والتعلم التعزيزي، وهي قابلة للنقل إلى ImageNet. كما أظهرت النتائج أن شبكات الأطفال التابعة لـ SNAS يمكنها الحفاظ على دقة التحقق أثناء البحث، بينما يتطلب NAS القائم على الانتباه إعادة تدريب المعلمات للمنافسة، مما يظهر إمكانات لتحقيق NAS فعال على مجموعات بيانات كبيرة. لقد أطلقنا تنفيذنا في https://github.com/SNAS-Series/SNAS-Series.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
بحث عشوائي في هندسة الشبكات العصبية (SNAS): Stochastic Neural Architecture Search | مستندات | HyperAI