إلحاق حدود خطوط الأنابيب البسيطة للتعلم القليل: تُحدث البيانات الخارجية والضبط الدقيق فرقًا

يُعد التعلم القائم على عدد قليل من الأمثلة (Few-shot Learning - FSL) مشكلة مهمة وشائعة في رؤية الحاسوب، وقد دفع إلى بحوث واسعة النطاق حول طرق متعددة، تمتد من أساليب التعلم الميتا المعقدة إلى أساليب بسيطة للنقل التعلمي (Transfer Learning). نسعى إلى تجاوز الحدود المعرفة بمسار بسيط ولكنه فعّال، بهدف تطبيقه في بيئات أكثر واقعية وعمليّة لتصنيف الصور باستخدام عدد قليل من الأمثلة. ولتحقيق ذلك، نستكشف التعلم القائم على عدد قليل من الأمثلة من منظور هندسة الشبكات العصبية، بالإضافة إلى نموذج مكوّن من ثلاث مراحل لتحديث الشبكة تحت ظروف مختلفة من توافر البيانات، حيث يتم استخدام بيانات خارجية غير مُعلّمة في التدريب المسبق (Pre-training)، وتُستخدم الفئات الأساسية لمحاكاة مهام التعلم القائم على عدد قليل من الأمثلة أثناء التدريب الميتا (Meta-training)، بينما تُستخدم البيانات المُعلّمة بشكل محدود في المهمة الجديدة (Novel Task) لعملية التخصيص الدقيق (Fine-tuning). ونستكشف أسئلة مثل: (1) كيف تُفيد عملية التدريب المسبق على بيانات خارجية من التعلم القائم على عدد قليل من الأمثلة؟ (2) كيف يمكن استغلال هياكل المُحول (Transformer) الأحدث في هذا السياق؟ (3) كيف يُقلّل التخصيص الدقيق من تأثير الانزياح بين المجالات (Domain Shift)؟ في النهاية، نُظهر أن نموذجًا بسيطًا يعتمد على مُحول (Transformer) يحقق أداءً مذهلًا على المعايير القياسية مثل Mini-ImageNet وCIFAR-FS وCDFSL وMeta-Dataset. يمكن الاطلاع على الكود والعرض التوضيحي عبر الرابط: https://hushell.github.io/pmf.