HyperAIHyperAI
منذ 2 أشهر

خسارة دالة الإنتروبيا للتeregularization قرارات متنوعة الحدود

Sue Sin Chong
خسارة دالة الإنتروبيا للتeregularization قرارات متنوعة الحدود
الملخص

هل من الممكن تدريب عدة تصنيفات لإجراء تعاون جماعي ذي معنى لإنتاج مجموعة تسميات تنبؤية أفضل دون الحاجة إلى التسمية الحقيقية؟ سيقوم هذا البحث بتعديل أهداف التعلم التبايني لتدريب تجميع ذاتي مكمل بشكل آلي لإنتاج تنبؤ يتفوق على الأحدث في مهام CIFAR10 وCIFAR100-20. سيتم تقديم طريقة مباشرة لتعديل خط أنابيب التصنيف غير المنظور الواحد لتوليد تجميع شبكات عصبية ذات حدود قرار متغيرة تلقائيًا، مما يتيح لها تعلم مجموعة أكبر من الخصائص للتصنيفات. تعد تنظيم دالة الخسارة (Loss Function Entropy Regularization - LFER) شروطًا يجب إضافتها إلى دوال الخسارة في مرحلة ما قبل التدريب والتعلم التبايني. يعمل LFER كأداة لتعديل حالة الإنتروبيا لمجال الإخراج في التعلم غير المنظور، مما يؤدي إلى تنوع تمثيلات الكامنة لحدود القرار في الشبكات العصبية. يتميز التجميع الذي تم تدريبه باستخدام LFER بدقة نجاح أعلى للعينات القريبة من حدود القرار. يعتبر LFER أداة كافية لإرباك حدود القرار وقد أنتج تصنيفات تتفوق على الأحدث في مرحلة التعلم التبايني. أظهرت التجارب أن LFER يمكنه إنتاج تجميع بمستوى دقة يقارن بالأحدث ولكنه يتمتع بحدود قرار كامنة متغيرة. يتيح لنا ذلك إجراء التحقق الذاتي بشكل ذي معنى للعينات القريبة من حدود القرار، مما يشجع على تصنيف هذه العينات بشكل صحيح. من خلال الجمع بين احتمالية التنبؤ الصحيح لنفس العينة ضمن تجميع شبكات عصبية تم تدريبها، يمكن لطريقتنا أن تكون أفضل من تصنيف واحد عن طريق إزالة الضوضاء وتثبيت الخرائط المميزة الصحيحة.

خسارة دالة الإنتروبيا للتeregularization قرارات متنوعة الحدود | أحدث الأوراق البحثية | HyperAI