HyperAI

التعلم شبه المشرف

التعلم شبه الخاضع للإشرافإنها تقنية تعلم بين التعلم الخاضع للإشراف والتعلم غير الخاضع للإشراف. ويستخدم عينات مصنفة وغير مصنفة للتعلم.

يتيح التعلم شبه الخاضع للإشراف للمتعلم استخدام عينات غير مصنفة تلقائيًا لتحسين أداء التعلم دون الاعتماد على التفاعلات الخارجية.

افتراضان شائعان في التعلم شبه الخاضع للإشراف

هناك افتراض واحد وهو "افتراض المجموعة"، والذي يفترض أن البيانات لها بنية مجموعة وأن العينات في نفس المجموعة تنتمي إلى نفس الفئة.

النوع الآخر هو "الافتراض المتعدد"، والذي يفترض أن البيانات موزعة على بنية متعددة وأن العينات المتجاورة لها قيم إخراج مماثلة.

مقدمة موجزة عن نظرية التعلم شبه المشرف:

يحتوي التعلم شبه الخاضع للإشراف على مجموعتين من العينات، واحدة مُسمّاة والأخرى غير مُسمّاة.

المسمى = { ( xi , yi ) }، غير المسمى = { ( xi ) }. وكميًا، L << U.

1) باستخدام العينات المسمىة فقط، يمكننا إنشاء خوارزميات تصنيف خاضعة للإشراف؛

2) باستخدام العينات غير المسمىة فقط، يمكننا إنشاء خوارزميات التجميع غير الخاضعة للإشراف؛

3) باستخدام كليهما، نأمل في إضافة عينات غير مُسمّاة في 1 لتعزيز تأثير التصنيف المُشرف؛ وبالمثل، نأمل في إضافة عينات مُسمّاة في 2 لتعزيز تأثير التجميع غير الخاضع للإشراف.

بشكل عام، يركز التعلم شبه المشرف على إضافة عينات غير مُسمّاة إلى خوارزميات التصنيف الخاضع للإشراف لتحقيق التصنيف شبه المشرف. وهذا يعني أنه تتم إضافة العينات غير المسمىة إلى 1 لتعزيز تأثير التصنيف.

تصنيف خوارزميات التعلم شبه الخاضع للإشراف:

1) خوارزمية التدريب الذاتي؛

2) النماذج التوليدية

3) آلات الدعم المتجهية شبه الخاضعة للإشراف SVMs؛

4) الأساليب القائمة على الرسم البياني؛

5) خوارزمية التعلم متعدد وجهات النظر.

مراجع

【1】https://blog.csdn.net/ice110956/article/details/13775071

【2】http://blog.sciencenet.cn/blog-242887-309591.html

【3】https://www.zybuluo.com/Team/note/1133211