HyperAIHyperAI

Command Palette

Search for a command to run...

BECLR: التعلم القليل😊 الصور المُحسَّن بالدُّفعات والمقارن

Stylianos Poulakakis-Daktylidis Hadi Jamali-Rad

الملخص

التعلم السريع من عينات مصنفة قليلة هو صفة أساسية تميز الآلات عن البشر في عصر التعلم العميق للتمثيلات. يهدف التعلم القليل الغير مشرف (U-FSL) إلى جسر هذه الفجوة من خلال التخلي عن الاعتماد على التسميات أثناء التدريب. متأثرين بنجاح نماذج التعلم المقارن في مجال U-FSL، نتناول بشكل هيكلها نقاط الضعف في مرحلتي التدريب الأولي والاستدلال النهائى. نقترح وحدة ذاكرة متجمعة ديناميكياً (DyCE) جديدة لتعزيز فضاء تمثيلي ضمني قابل للفصل بشكل كبير، مما يحسن العينات الإيجابية في مرحلة التدريب الأولي ويضيف رؤى ضمنية على مستوى الفئة إلى التعلم المقارن غير المشرف. ثم نعالج المشكلة التي تم تجاهلها نوعاً ما ولكنها حاسمة، وهي تحيز العينة في مرحلة الاستدلال القليل. نقترح استراتيجية تنسيق توزيعية قائمة على النقل الأمثل بطريقة تكرارية (OpTA)، ونثبت أنها تعالج المشكلة بكفاءة، خاصة في السيناريوهات ذات العينات القليلة حيث تعاني طرق FSL من تحيز العينة بشكل أكبر. بعد ذلك، نناقش أن DyCE وOpTA هما قطعتان مرتبطتان ببعضهما البعض في إطار جديد يمتد من البداية إلى النهاية (سماه BECLR)، تعملان على زيادة تأثير كل منهما بشكل بناء. أخيرًا، نقدم مجموعة شاملة من التجارب الكمية والنوعية لتأكيد أن BECLR يحدد حالة فنية جديدة عبر جميع مقاييس U-FSL الحالية (حسب علمنا)، ويتفوق بشكل كبير على أفضل الأساليب الحالية (متوفر الكود المصدر على الرابط: https://github.com/stypoumic/BECLR).


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
BECLR: التعلم القليل😊 الصور المُحسَّن بالدُّفعات والمقارن | مستندات | HyperAI