HyperAIHyperAI
منذ 11 أيام

UniformAugment: نهج تكبير بيانات احتمالي خالٍ من البحث

Tom Ching LingChen, Ava Khonsari, Amirreza Lashkari, Mina Rafi Nazari, Jaspreet Singh Sambee, Mario A. Nascimento
UniformAugment: نهج تكبير بيانات احتمالي خالٍ من البحث
الملخص

أُظهر أن تعزيز مجموعات التدريب يُحسّن كفاءة التعلّم في عدة مهام رؤية حاسوبية. وتكمن فعالية التحويل الجيد في إنتاج مجموعة بيانات مُعدّلة تُضيف تنوعًا مع الحفاظ على الخصائص الإحصائية للمجموعة الأصلية. وقد قدمت بعض التقنيات، مثل AutoAugment وFast AutoAugment، مرحلة بحث لتحديد مجموعة من سياسات التحويل المناسبة لنموذج معين ومجموعة بيانات محددة. لكن هذه العملية تأتي بتكاليف حسابية كبيرة، تصل إلى آلاف ساعات استخدام وحدات معالجة الرسومات (GPU). وفي الأونة الأخيرة، تم اقتراح RandAugment لتسريع مرحلة البحث بشكل كبير من خلال تقريب فضاء البحث باستخدام عدد قليل من المعلمات الفائقة، لكنه ما زال يُكبّد تكلفة غير بسيطة في ضبط تلك المعلمات. في هذه الورقة، نُظهر أنه، بفرض أن فضاء التحويلات يُقاس تقريبًا بثبات التوزيع (distribution invariance)، فإن العينة الموحدة (uniform sampling) عبر الفضاء المستمر للتحويلات التحويلية تكون كافية لتدريب نماذج فعّالة للغاية. استنادًا إلى هذا النتيجة، نقترح UniformAugment، وهي طريقة تلقائية لتعزيز البيانات لا تتطلب أي مرحلة بحث. وبالإضافة إلى مناقشة الأساس النظري الداعم لنهجنا، نستخدم مجموعات بيانات قياسية، بالإضافة إلى نماذج مثبتة في تصنيف الصور، لنُظهر أن كفاءة UniformAugment تُقاس بالتقنيات المذكورة سابقًا، مع الحفاظ على كفاءة عالية نظرًا لعدم الحاجة إلى أي عملية بحث.

UniformAugment: نهج تكبير بيانات احتمالي خالٍ من البحث | أحدث الأوراق البحثية | HyperAI