إعادة النظر في التحسين الدقيق للتعلم القليل الإطلاقي

التعلم القليل هو عملية تعلم فئات جديدة باستخدام عدد قليل من الأمثلة، وهو ما يظل مهمة صعبة في مجال التعلم الآلي. تم اقتراح العديد من خوارزميات التعلم القليل المعقدة استنادًا إلى الفكرة القائلة بأن الشبكات يمكن أن تتعرض بسهولة للتشوه (overfit) على أمثلة جديدة إذا تم ضبطها الدقيق فقط باستخدام عدد قليل من الأمثلة. في هذه الدراسة، نظهر أن طريقة الضبط الدقيق (fine-tuning) تحقق دقة أعلى من الخوارزميات الشائعة للتعلم القليل في مهمة 1-صورة (1-shot)، ودقة مماثلة تقريبًا لتلك التي تحققها الخوارزمية الأكثر تقدمًا في مهمة 5-صور (5-shot) باستخدام مجموعة البيانات المصغرة لـ ImageNet ذات الدقة المنخفضة والمستخدمة بشكل شائع.ثم نقيم طريقتنا بمهمات أكثر واقعية، وهي المهام ذات الدقة العالية ضمن نطاق واحد وعبر نطاقات مختلفة. بالنسبة لكلا المهمتين، نظهر أن طريقتنا تحقق دقة أعلى من الخوارزميات الشائعة للتعلم القليل. نقوم أيضًا بتحليل النتائج التجريبية ونوضح أن: 1) يمكن تعزيز استقرار عملية إعادة التدريب عن طريق استخدام معدل تعلم منخفض، 2) يمكن زيادة دقة الاختبار باستخدام مُحسِّمات التدرج التكيفية أثناء الضبط الدقيق، و3) يمكن تحسين دقة الاختبار عن طريق تحديث الشبكة بأكملها عندما يكون هناك اختلاف كبير بين الفئات الأساسية والفئات الجديدة.