HyperAIHyperAI
منذ 2 أشهر

التعلم الميتا غير المحدد نموذجيًا احتماليًا

Chelsea Finn; Kelvin Xu; Sergey Levine
التعلم الميتا غير المحدد نموذجيًا احتماليًا
الملخص

التعلم المُتَكَيِّف للتعلم القليل ينطوي على اكتساب سابقة (prior) على المهام والخبرات السابقة، بحيث يمكن تعلم مهام جديدة من كميات صغيرة من البيانات. ومع ذلك، فإن التحدي الحاسم في التعلم القليل هو الغموض المهمة: حتى عندما يمكن اكتساب سابقة قوية من خلال التعلم المُتَكَيِّف من عدد كبير من المهام السابقة، قد تكون مجموعة بيانات صغيرة لمهام جديدة ببساطة غامضة جدًا لكي يتمكن المرء من اكتساب نموذج واحد (مثل تصنيف) لهذه المهمة يكون دقيقًا.في هذا البحث، نقترح خوارزمية تعلم مُتَكَيِّف احتمالية يمكنها أخذ عينات من النماذج لمهمة جديدة من توزيع النموذج. يوسع نهجنا التعلم المُتَكَيِّف غير المرتبط بالنموذج (model-agnostic meta-learning)، الذي يتكيّف مع المهام الجديدة عبر الانحدار التدرجي (gradient descent)، ليشمل توزيع معلمة يتم تدريبه عبر حد أدنى متغير (variational lower bound). في وقت الاختبار المُتَكَيِّف، تتكيّف خوارزميتنا عبر إجراء بسيط يحقن الضوضاء في الانحدار التدرجي، وفي وقت التدريب المُتَكَيِّف، يتم تدريب النموذج بحيث ينتج هذا الإجراء المتكيّف العشوائي عينات من اللاحقي التقريبي للتوزيع النموذجي (approximate model posterior).نتائج تجاربنا تظهر أن طريقتنا قادرة على أخذ عينات من الطبقات والمتغيرات المحتملة في مشاكل التعلم القليل الغامضة. كما نوضح كيف يمكن استخدام الاستدلال عن الغموض أيضًا في مشاكل التعلم الفعّال اللاحقة (downstream active learning problems).

التعلم الميتا غير المحدد نموذجيًا احتماليًا | أحدث الأوراق البحثية | HyperAI