HyperAIHyperAI

Command Palette

Search for a command to run...

خسارة الأنتروبي المتقاطعة العامة لتدريب الشبكات العصبية العميقة ذات التسميات الضوضائية

Zhilu Zhang Mert R. Sabuncu

الملخص

حققت الشبكات العصبية العميقة (DNNs) نجاحًا كبيرًا في مجموعة متنوعة من التطبيقات عبر العديد من التخصصات. ومع ذلك، يأتي أداؤها المتفوق مع تكلفة باهظة تتطلب توفر قواعد بيانات كبيرة ومُشَرَّحة بشكل صحيح. بالإضافة إلى ذلك، يمكن أن تؤدي الأخطاء في علامات التدريب إلى إضعاف الأداء بسبب القدرة الكبيرة للشبكات العصبية العميقة. لمواجهة هذه المشكلة، تم اقتراح متوسط الخطأ المطلق (MAE) مؤخرًا كبديل مقاوم للضوضاء عن دالة الخسارة الأكثر استخدامًا وهي الخسارة التصنيفية المتقاطعة (CCE). ومع ذلك، كما نوضح في هذا البحث، يمكن أن يؤدي متوسط الخطأ المطلق إلى أداء سيء مع الشبكات العصبية العميقة وقواعد البيانات الصعبة. هنا، نقدم مجموعة من دوال الخسارة المقاومة للضوضاء والمبنية على أساس نظري، والتي يمكن اعتبارها تعميمًا لمتوسط الخطأ المطلق والخسارة التصنيفية المتقاطعة. يمكن تطبيق الدوال المقترحة بسهولة مع أي بنية أو خوارزمية شبكية عصبية عميقة موجودة، مما يحقق أداءً جيدًا في مجموعة واسعة من السيناريوهات ذات العلامات الضوضائية. نقدم نتائج التجارب التي أجريت باستخدام قواعد بيانات CIFAR-10 وCIFAR-100 وFASHION-MNIST والعَلامات الضوضائية التي تم إنشاؤها بشكل صناعي.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp