كيفية تدريب نموذج MAML

حققت مجال التعلم القليل الأمثل (few-shot learning) تقدمًا كبيرًا في الآونة الأخيرة. جاء معظم هذه التقدمات من خلال صياغة مشكلة التعلم القليل الأمثل كمشكلة تعلم متعدد (meta-learning). يعتبر نموذج التعلم المتعدد المستقل عن النموذج (Model-Agnostic Meta-Learning أو MAML) حاليًا أحد أفضل الأساليب للتعلم القليل الأمثل عبر التعلم المتعدد. يتميز MAML ببساطته وأناقته وقوته الكبيرة، ومع ذلك، يعاني من مجموعة من المشكلات، مثل حساسيته الشديدة لتصميمات الشبكات العصبية، مما يؤدي غالبًا إلى عدم الاستقرار أثناء التدريب، والحاجة إلى إجراء بحث مكثف عن المعايير الفائقة (hyperparameters) لاستقرار التدريب وتحقيق تعميم عالٍ، بالإضافة إلى كونه باهظ الثمن من الناحية الحسابية في مراحل التدريب والاستدلال. في هذا البحث، نقترح مجموعة من التعديلات على MAML التي لا تقتصر على استقرار النظام فحسب، بل تحسن أيضًا بشكل كبير أداء التعميم وسرعة التقارب والعبء الحسابي لمتطلبات MAML، والتي نطلق عليها اسم MAML++.请注意,这里“few-shot learning”被翻译为“التعلم القليل الأمثل”,而“meta-learning”则被翻译为“التعلم المتعدد”。这两个术语在阿拉伯语中都有不同的翻译方式,但这是较为常见的译法。如果需要使用其他术语,请告知我。