HyperAIHyperAI

Command Palette

Search for a command to run...

EnAET: إطار ذاتي التدريب للتعلم شبه المراقب والتعلم المراقب باستخدام تحولات مجمعة

Xiao Wang Daisuke Kihara Jiebo Luo Guo-Jun Qi

الملخص

تم تطبيق الشبكات العصبية العميقة بنجاح في العديد من التطبيقات الواقعية. ومع ذلك، تعتمد هذه النجاحات بشكل كبير على كميات كبيرة من البيانات المُصنفة، والتي يصعب الحصول عليها بسهولة. في الآونة الأخيرة، تم اقتراح العديد من الطرق الخاصة بالتعلم شبه المُراقب، وقد حققت أداءً متميزًا. في هذه الدراسة، نقترح إطار عمل جديد يُسمى EnAET لتحسين الطرق الحالية للتعلم شبه المُراقب من خلال الاستفادة من معلومات التعلم الذاتي. إلى حد معرفتنا، تعتمد جميع الطرق الحالية للتعلم شبه المُراقب على أفكار اتساق التنبؤ وثقة النموذج. ونحن أول من يستكشف دور التمثيلات الذاتية في التعلم شبه المُراقب ضمن عائلة غنية من التحولات. وبذلك، يمكن ل إطارنا دمج المعلومات الذاتية كحدّ منظم (regularization term) لتحسين جميع الطرق الحالية للتعلم شبه المُراقب. في التجارب، استخدمنا MixMatch، وهي الطريقة الحالية الأفضل أداءً في التعلم شبه المُراقب، كأساس مرجعي لاختبار إطار EnAET المقترح. وعبر مختلف المجموعات البيانات، استخدمنا نفس القيم المعلمة (hyper-parameters)، مما عزز بشكل كبير قدرة إطار EnAET على التعميم. أظهرت نتائج التجارب على مجموعات بيانات مختلفة أن إطار EnAET المُقترح يُحسّن بشكل كبير أداء الخوارزميات الحالية للتعلم شبه المُراقب. علاوة على ذلك، يمكن لهذا الإطار أيضًا تحسين التعلم المُراقب بشكل كبير، بما في ذلك السيناريوهات الصعبة للغاية التي تضم فقط 10 صور لكل فئة. يُمكن الوصول إلى الكود وسجلات التجارب من خلال الرابط التالي: \url{https://github.com/maple-research-lab/EnAET}.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp