خسارة الأنتروبي المتقاطعة العامة لتدريب الشبكات العصبية العميقة ذات التسميات الضوضائية

حققت الشبكات العصبية العميقة (DNNs) نجاحًا كبيرًا في مجموعة متنوعة من التطبيقات عبر العديد من التخصصات. ومع ذلك، يأتي أداؤها المتفوق مع تكلفة باهظة تتطلب توفر قواعد بيانات كبيرة ومُشَرَّحة بشكل صحيح. بالإضافة إلى ذلك، يمكن أن تؤدي الأخطاء في علامات التدريب إلى إضعاف الأداء بسبب القدرة الكبيرة للشبكات العصبية العميقة. لمواجهة هذه المشكلة، تم اقتراح متوسط الخطأ المطلق (MAE) مؤخرًا كبديل مقاوم للضوضاء عن دالة الخسارة الأكثر استخدامًا وهي الخسارة التصنيفية المتقاطعة (CCE). ومع ذلك، كما نوضح في هذا البحث، يمكن أن يؤدي متوسط الخطأ المطلق إلى أداء سيء مع الشبكات العصبية العميقة وقواعد البيانات الصعبة. هنا، نقدم مجموعة من دوال الخسارة المقاومة للضوضاء والمبنية على أساس نظري، والتي يمكن اعتبارها تعميمًا لمتوسط الخطأ المطلق والخسارة التصنيفية المتقاطعة. يمكن تطبيق الدوال المقترحة بسهولة مع أي بنية أو خوارزمية شبكية عصبية عميقة موجودة، مما يحقق أداءً جيدًا في مجموعة واسعة من السيناريوهات ذات العلامات الضوضائية. نقدم نتائج التجارب التي أجريت باستخدام قواعد بيانات CIFAR-10 وCIFAR-100 وFASHION-MNIST والعَلامات الضوضائية التي تم إنشاؤها بشكل صناعي.