HyperAIHyperAI

Command Palette

Search for a command to run...

هناك تفسيرات عديدة متسقة للبيانات غير المصنفة: لماذا يجب عليك التوسيط

Ben Athiwaratkun; Marc Finzi; Pavel Izmailov; Andrew Gordon Wilson

الملخص

في الوقت الحاضر، تعتبر أساليب التعلم شبه المشرف (Semi-supervised Learning) الأكثر نجاحًا هي التي تعتمد على تنظيم الثبات (Consistency Regularization)، حيث يتم تدريب النموذج ليكون قويًا تجاه الاضطرابات الصغيرة في مدخلاته ومعامليه. لفهم تنظيم الثبات، نستكشف بشكل مفاهيمي كيف يتفاعل هندسة الخسارة مع إجراءات التدريب. تحسن الخسارة القائمة على الثبات بشكل كبير من أداء التعميم مقارنة بالتدريب المشرف فقط؛ ومع ذلك، نوضح أن خوارزمية النزول العشوائي للتفاضل (Stochastic Gradient Descent - SGD) تواجه صعوبة في التقارب على الخسارة القائمة على الثبات وتستمر في اتخاذ خطوات كبيرة تؤدي إلى تغييرات في التنبؤات على بيانات الاختبار.مستوحى من هذه المشاهدات، نقترح استخدام متوسط الأوزان العشوائي (Stochastic Weight Averaging - SWA)، وهو أسلوب حديث يقوم بمتوسط الأوزان طوال مسار النزول العشوائي للتفاضل مع جدول معدل تعلم معدل. كما نقترح fast-SWA، الذي يسرع التقارب أكثر من خلال متوسط نقاط متعددة داخل كل دورة من دورات جدول معدل التعلم الدوري. باستخدام متوسط الأوزان، حققنا أفضل النتائج المعروفة في مجال التعلم شبه المشرف على مجموعتي بيانات CIFAR-10 وCIFAR-100، وذلك بغض النظر عن كميات مختلفة من البيانات التدريبية المصنفة. على سبيل المثال، حققنا نسبة خطأ قدرها 5.0% على CIFAR-10 باستخدام 4000 تصنيف فقط، بالمقارنة مع أفضل نتيجة سابقة في الأدب العلمي والتي كانت 6.3%.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
هناك تفسيرات عديدة متسقة للبيانات غير المصنفة: لماذا يجب عليك التوسيط | مستندات | HyperAI