HyperAIHyperAI

Command Palette

Search for a command to run...

التعلم التدريجي من البداية إلى النهاية

Francisco M. Castro Manuel J. Marín-Jiménez Nicolás Guil Cordelia Schmid Karteek Alahari

الملخص

رغم أن نماذج التعلم العميق قد تألقت في السنوات الأخيرة بفضل نتائجها الرائدة، إلا أنها لا تزال تعاني من النسيان الكارثي، وهو انخفاض حاد في الأداء الشامل عند التدريب مع إضافة فئات جديدة بشكل تدريجي. هذا يرجع إلى أن هياكل الشبكات العصبية الحالية تتطلب مجموعة البيانات الكاملة، والتي تتكون من جميع العينات من الفئات القديمة والجديدة، لتحديث النموذج - وهي متطلبات تصبح غير مستدامة بسهولة مع زيادة عدد الفئات. نعالج هذه المشكلة بنهجنا لتعلم الشبكات العصبية العميقة بشكل تدريجي، باستخدام بيانات جديدة ونماذج صغيرة فقط متعلقة بالعينات من الفئات القديمة. يتم ذلك على أساس دالة خسارة تتكون من مقياس التقطير لحفظ المعرفة المكتسبة من الفئات القديمة، وخسارة الانتروبيا المتقاطعة لتعلم الفئات الجديدة. نحقق التدريب التدريجي لدينا بينما نحافظ على الإطار الكامل كله-اله، أي تعلم تمثيل البيانات وال تصنيف معاً، على عكس الأساليب الحديثة التي لا توفر مثل هذه الضمانات. قمنا بتقييم طرقنا بشكل شامل على مجموعتي بيانات تصنيف الصور CIFAR-100 و ImageNet (ILSVRC 2012)، وأظهرنا أداءً رائدًا في هذا المجال.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp