مُعْيَارٌ أساسيٌ لتصنيف الصور بقليل من الأمثلة

إعادة ضبط الشبكة العميقة التي تم تدريبها باستخدام خسارة الـ cross-entropy القياسية يُعد أساسًا قويًا لتعلم القليل من الأمثلة (few-shot learning). عند إعادة الضبط بشكل توصيلي (transductively)، يتفوق هذا النهج على أحدث النماذج المُقدَّمة على مجموعات البيانات القياسية مثل Mini-ImageNet وTiered-ImageNet وCIFAR-FS وFC-100، باستخدام نفس القيم المُعلَّمة (hyper-parameters). تُسهّل بساطة هذا النهج إظهار النتائج الأولى لتعلم القليل من الأمثلة على مجموعة بيانات ImageNet-21k. وجدنا أن استخدام عدد كبير من الفئات في التدريب الوسيط (meta-training classes) يؤدي إلى دقة عالية في المهام القليلة من الأمثلة، حتى عند وجود عدد كبير من الفئات القليلة من الأمثلة. لا نُقدّم هذا النهج كحل مثالي لتعلم القليل من الأمثلة، بل نستخدم النتائج فقط لتوضيح القيود الحالية في مجموعات البيانات والبروتوكولات المستخدمة في هذا المجال. قمنا بدراسات موسعة على مجموعات البيانات القياسية لاقتراح مقياس يُقيّم "صعوبة" تجربة قليلة من الأمثلة (few-shot episode). يمكن استخدام هذا المقياس لتقديم أداء خوارزميات التعلم القليل من الأمثلة بطريقة أكثر منهجية.