HyperAIHyperAI
منذ 17 أيام

على تنظيم ميكس أب

Luigi Carratino, Moustapha Cissé, Rodolphe Jenatton, Jean-Philippe Vert
على تنظيم ميكس أب
الملخص

تُعدّ تقنية ميكساب (Mixup) تقنية لتعزيز البيانات تُنشئ أمثلة جديدة من خلال التوليف الخطي المحدّد (convex combinations) للنقاط والصفات التدريبية. وقد أظهرت هذه التقنية البسيطة تحسّنًا تجريبيًا في دقة العديد من النماذج الرائدة في مجالات مختلفة وتطبيقات متعددة، لكن الأسباب الكامنة وراء هذا النجاح التجريبي ما زالت غير مفهومة جيدًا. في هذا البحث، نتقدّم بخطوة كبيرة نحو تفسير الأساس النظري لتقنية ميكساب، من خلال توضيح تأثيراتها التрегّلية (regularization effects). نُظهر أن ميكساب يمكن تفسيرها على أنها مقدّر لتقدير المخاطر التجريبية القياسية (standard empirical risk minimization estimator) خاضع لتركيب من تحويل البيانات وعوامل اضطراب عشوائية على البيانات المحولة. ونتيجة لهذا التفسير الجديد، نحصل على رؤيتين رئيسيتين. أولاً، يشير تحويل البيانات إلى أن النموذج المدرب باستخدام ميكساب ينبغي تطبيقه أيضًا على بيانات محولة عند التقييم، وهو تغيير بسيط في الكود (خط واحد) نُظهر تجريبيًا أنه يحسّن دقة التنبؤات وتحديثها (calibration). ثانيًا، نُظهر كيف أن العوامل الاضطرابية العشوائية في هذا التفسير الجديد لـ ميكساب تُولّد تدابير تрегّلية معروفة متعددة، بما في ذلك تخفيف التصنيف (label smoothing) وخفض ثابت ليبشيتز (Lipschitz constant) للمقدّر. وتتفاعل هذه التدابير بشكل تآزري، مما يؤدي إلى تأثير تрегّلي ذاتي التوازن وفعّال، يمنع التعلّم الزائد (overfitting) والتوقّعات المفرطة بالثقة. ونُعزّز تحليلنا النظري بتجارب تجريبية تدعم استنتاجاتنا.

على تنظيم ميكس أب | أحدث الأوراق البحثية | HyperAI