منذ 2 أشهر
mixup: ما وراء تقليل المخاطر التجريبية
Hongyi Zhang; Moustapha Cisse; Yann N. Dauphin; David Lopez-Paz

الملخص
الشبكات العصبية العميقة الكبيرة قوية، ولكنها تظهر سلوكيات غير مرغوب فيها مثل الحفظ والتعرض للنماذج المعادية. في هذا البحث، نقترح مبدأ تعلم بسيط يُعرف باسم "mixup" لحل هذه المشكلات. في جوهره، يقوم "mixup" بتدريب الشبكة العصبية على تركيبات محدبة من أزواج الأمثلة وتصنيفاتها. من خلال هذا الإجراء، يتم تنظيم الشبكة العصبية لتعزيز السلوك الخطي البسيط بين الأمثلة التدريبية. أظهرت تجاربنا على مجموعات البيانات ImageNet-2012 وCIFAR-10 وCIFAR-100 وGoogle commands وUCI أن "mixup" يحسن قابلية التعميم للمعماريات الحديثة للشبكات العصبية. كما اكتشفنا أن "mixup" يقلل من حفظ التصنيفات الفاسدة، ويزيد من متانة الشبكة أمام النماذج المعادية، ويستقر في تدريب الشبكات المعادية المولدة (Generative Adversarial Networks).