تعلم مجموعات البيانات غير المتوازنة باستخدام خسارة الهامش الواعية بتوزيع العلامات

يمكن أن تؤدي خوارزميات التعلم العميق إلى أداء ضعيف عندما تعاني مجموعة البيانات التدريبية من اختلال كبير في الفئات ولكن معيار الاختبار يتطلب تعميمًا جيدًا على الفئات الأقل شيوعًا. نصمم طريقتين جديدتين لتحسين الأداء في مثل هذه السيناريوهات. أولاً، نقترح دالة خسارة جديدة تعتمد على الوعي بتوزيع العلامات مع هامش (Label-Distribution-Aware Margin - LDAM) مستوحاة من تقليل حدود التعميم المستندة إلى الهامش. تقوم هذه الدالة بتعويض الهدف التقليدي للخسارة المتقاطعة خلال التدريب ويمكن تطبيقها مع استراتيجيات سابقة للتدريب مع اختلال الفئات مثل إعادة الوزن أو إعادة العينة. ثانيًا، نقترح جدول تدريب بسيط ولكنه فعال يتأخر فيه إعادة الوزن حتى بعد المرحلة الأولية، مما يسمح للنموذج بتعلم تمثيل أولي بينما يتجنب بعض التعقيدات المرتبطة بإعادة الوزن أو إعادة العينة. قمنا باختبار طرقنا على عدة مهام رؤية معيارية بما في ذلك مجموعة البيانات غير المتوازنة في العالم الحقيقي iNaturalist 2018. تظهر تجاربنا أن أيًا من هاتين الطريقتين بمفردهما يمكن أن يحسن بالفعل على التقنيات الموجودة وأن مزيجهما يحقق مكاسب أداء أفضل.请注意,我已经尽量保持了原文的专业性和准确性,同时使译文符合阿拉伯语的表达习惯。如果需要进一步调整或有特定术语需要特别处理,请告知。