HyperAIHyperAI
منذ 2 أشهر

تعلم هياكل قابلة للنقل للاعتراف بالصور القابل للتوسيع

Barret Zoph; Vijay Vasudevan; Jonathon Shlens; Quoc V. Le
تعلم هياكل قابلة للنقل للاعتراف بالصور القابل للتوسيع
الملخص

تطوير نماذج تصنيف الصور باستخدام الشبكات العصبية غالباً ما يتطلب هندسة معمارية كبيرة. في هذا البحث، ندرس طريقة لتعلم معماريات النماذج مباشرة على مجموعة البيانات محل الاهتمام. ومع كون هذه الطريقة باهظة الثمن عندما تكون مجموعة البيانات كبيرة، نقترح البحث عن وحدة بناء معمارية على مجموعة بيانات صغيرة ومن ثم نقل هذه الوحدة إلى مجموعة بيانات أكبر. المساهمة الرئيسية لهذا العمل هي تصميم فضاء بحث جديد (فضاء البحث "NASNet") يتيح القابلية للنقل. في تجاربنا، نبحث عن أفضل طبقة تجميع (أو "خلية") على مجموعة بيانات CIFAR-10 ومن ثم نطبق هذه الخلية على مجموعة بيانات ImageNet من خلال تجميع المزيد من نسخ هذه الخلية، كل منها مع معلماتها الخاصة لتصميم معمارية تجميع، والتي أطلق عليها اسم "معمارية NASNet". كما قمنا بتقديم تقنية تنظيم جديدة تُسمى ScheduledDropPath التي تحسن بشكل كبير التعميم في نماذج NASNet. على CIFAR-10 نفسها، حققت Mعمارية NASNet معدل خطأ بنسبة 2.4٪، وهو الأفضل حتى الآن. وعلى ImageNet، حققت معمارية NASNet دقة أعلى بمعدل 82.7٪ في التصنيف الأول و96.2٪ في التصنيف الخامس بين الأعمال المنشورة على ImageNet. بلغت دقة النموذج الخاص بنا في التصنيف الأول 1.2٪ أفضل من أفضل المعماريات التي ابتكرها البشر بينما كان لديه 9 مليار عملية أقل (FLOPS) - أي انخفاض بنسبة 28٪ في متطلبات الحسابات من النموذج الأفضل السابق. عند تقييمها بمستويات مختلفة من تكلفة الحسابات، فإن دقائق NASNets تتجاوز دقائق النماذج المصممة بواسطة البشر والمتميزة عالمياً. على سبيل المثال، إصدار صغير من NASNet يحقق أيضاً دقة تصنيف أولى بنسبة 74٪، وهي أعلى بنسبة 3.1٪ من دقائق النماذج ذات الحجم المكافئ والمتميزة عالمياً للمستوى الجوال. وأخيراً، فإن الخصائص التي تم تعليمها بواسطة NASNet واستخدامها مع إطار عمل Faster-RCNN تتخطى الدقة العالمية بأربع نقاط مئوية لتصل إلى نسبة mAP 43.1٪ على مجموعة بيانات COCO.

تعلم هياكل قابلة للنقل للاعتراف بالصور القابل للتوسيع | أحدث الأوراق البحثية | HyperAI