HyperAIHyperAI
منذ 17 أيام

BaseTransformers: انتباه مُوجَّه نحو نقاط البيانات الأساسية لتعلم واحد فقط

Mayug Maniparambil, Kevin McGuinness, Noel O&#39, Connor
BaseTransformers: انتباه مُوجَّه نحو نقاط البيانات الأساسية لتعلم واحد فقط
الملخص

يهدف التصنيف بعينات قليلة إلى تعلُّم التعرف على فئات جديدة باستخدام عدد محدود جدًا من الأمثلة لكل فئة. تعتمد معظم الطرق الحديثة في التصنيف بعينات قليلة على مجموعة بيانات أساسية غنية بالعينات المُعلَّمة لتدريب مشغل (encoder) يستخدم لاستخراج تمثيلات للعينات الداعمة الخاصة بالفئات الجديدة. ومع أن العينات المُختبرة تأتي من توزيع مختلف عن التوزيع الأساسي، فإن تمثيلاتها المميزة تكون ذات جودة منخفضة، مما يؤدي إلى تدهور الأداء. في هذا البحث، نقترح الاستفادة من التمثيلات المميزة المُدرَّبة جيدًا لمجموعة البيانات الأساسية التي تكون أقرب إلى كل عينة داعمة لتحسين تمثيلها أثناء مرحلة الاختبار التماثلي (meta-test). ولتحقيق ذلك، نُقدّم نموذج BaseTransformers، الذي يركّز على أكثر المناطق صلةً في فضاء تمثيلات مجموعة البيانات الأساسية ويعزز تمثيلات العينات الداعمة. أظهرت التجارب على ثلاث مجموعات بيانات معيارية أن طريقة العمل لدينا تُظهر أداءً جيدًا مع عدة هياكل أساسية (backbones)، وتحقيق نتائج متقدمة على مستوى الحالة الحالية (state-of-the-art) في بيئة التصنيف الفردي (inductive one-shot). يمكن الاطلاع على الكود عبر الرابط: github.com/mayug/BaseTransformers

BaseTransformers: انتباه مُوجَّه نحو نقاط البيانات الأساسية لتعلم واحد فقط | أحدث الأوراق البحثية | HyperAI