HyperAIHyperAI

Command Palette

Search for a command to run...

التنظيم باستخدام التحويلات والاضطرابات العشوائية للتعلم شبه المشرف العميق

Mehdi Sajjadi Mehran Javanmardi Tolga Tasdizen

الملخص

الشبكات العصبية التلافيفية الفعالة يتم تدريبها على مجموعات كبيرة من البيانات المصنفة. ومع ذلك، فإن إنشاء مجموعات بيانات كبيرة ومصنفة هو مهمة باهظة الثمن ومستهلكة للوقت. يُستخدم التعلم شبه المشرف (Semi-supervised learning) لتدريب النموذج بدقة أعلى عندما تكون هناك مجموعة محدودة من البيانات المصنفة متاحة. في هذا البحث، نتناول مشكلة التعلم شبه المشرف باستخدام الشبكات العصبية التلافيفية. تقنيات مثل زيادة البيانات بشكل عشوائي (randomized data augmentation)، الإسقاط (dropout) والتوسيط العشوائي للحد الأقصى (random max-pooling) توفر تعميمًا أفضل واستقرارًا للتصنيفات التي يتم تدريبها باستخدام الانحدار التدرجي (gradient descent). قد يؤدي مرور عينة فردية عبر الشبكة عدة مرات إلى تنبؤات مختلفة بسبب السلوك غير الحتمي لهذه التقنيات. نقترح دالة خسارة غير مشرفة تستفيد من الطبيعة العشوائية لهذه الطرق وتقلل الفرق بين تنبؤات مرور عينة التدريب عبر الشبكة عدة مرات. قمنا بتقييم الطريقة المقترحة على عدة مجموعات بيانات معيارية.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp