Command Palette
Search for a command to run...
مُعْيَارٌ أساسيٌ لتصنيف الصور بقليل من الأمثلة
مُعْيَارٌ أساسيٌ لتصنيف الصور بقليل من الأمثلة
Guneet S. Dhillon Pratik Chaudhari Avinash Ravichandran Stefano Soatto
الملخص
إعادة ضبط الشبكة العميقة التي تم تدريبها باستخدام خسارة الـ cross-entropy القياسية يُعد أساسًا قويًا لتعلم القليل من الأمثلة (few-shot learning). عند إعادة الضبط بشكل توصيلي (transductively)، يتفوق هذا النهج على أحدث النماذج المُقدَّمة على مجموعات البيانات القياسية مثل Mini-ImageNet وTiered-ImageNet وCIFAR-FS وFC-100، باستخدام نفس القيم المُعلَّمة (hyper-parameters). تُسهّل بساطة هذا النهج إظهار النتائج الأولى لتعلم القليل من الأمثلة على مجموعة بيانات ImageNet-21k. وجدنا أن استخدام عدد كبير من الفئات في التدريب الوسيط (meta-training classes) يؤدي إلى دقة عالية في المهام القليلة من الأمثلة، حتى عند وجود عدد كبير من الفئات القليلة من الأمثلة. لا نُقدّم هذا النهج كحل مثالي لتعلم القليل من الأمثلة، بل نستخدم النتائج فقط لتوضيح القيود الحالية في مجموعات البيانات والبروتوكولات المستخدمة في هذا المجال. قمنا بدراسات موسعة على مجموعات البيانات القياسية لاقتراح مقياس يُقيّم "صعوبة" تجربة قليلة من الأمثلة (few-shot episode). يمكن استخدام هذا المقياس لتقديم أداء خوارزميات التعلم القليل من الأمثلة بطريقة أكثر منهجية.