HyperAIHyperAI
منذ 11 أيام

المحاذاة المُلهمة بالانهيار العصبي بين الميزات والفصل في التعلم الفئوي القائم على عدد قليل من الأمثلة وتحديث فئوي تدريجي

{DaCheng Tao, Philip Torr, Zhouchen Lin, Xiangtai Li, Haobo Yuan, Yibo Yang}
المحاذاة المُلهمة بالانهيار العصبي بين الميزات والفصل في التعلم الفئوي القائم على عدد قليل من الأمثلة وتحديث فئوي تدريجي
الملخص

يُعد التعلم التصنيفي القائم على عدد قليل من الأمثلة (FSCIL) مشكلةً صعبة، نظرًا لأن عددًا محدودًا جدًا من أمثلة التدريب متوفرة لكل فئة جديدة في الجلسات الجديدة. يؤدي التدريب الدقيق للهيكل الأساسي أو تعديل نماذج التصنيف التي تم تدريبها في الجلسات السابقة إلى تداخل غير مقصود بين ميزات الفئات القديمة وتصنيفها، وهو ما يفسر ظاهرة النسيان الكارثي المعروفة. في هذه الورقة، نعالج هذا التناقض الناتج عن هذا التداخل في FSCIL مستندين إلى ظاهرة حديثة تم اكتشافها تُسمى "انهيار الشبكة العصبية" (neural collapse)، والتي تُظهر أن ميزات الطبقة الأخيرة للتصنيف نفسه تنكمش إلى رأس واحد، وأن الرؤوس الخاصة بجميع الفئات تكون محاذاة مع نماذج التصنيف، التي تُشكّل هيكلًا هندسيًا يُعرف بـ "إطار متوازن متساوي الزوايا من الرباعية" (simplex equiangular tight frame - ETF). ويُعد هذا الهيكل الهندسي المثالي للتصنيف نظرًا لزيادة نسبة التمييز الفيشر (Fisher Discriminant Ratio) إلى أقصى حد ممكن. نقترح إطارًا مُستوحى من انهيار الشبكة العصبية لمعالجة FSCIL، حيث يتم تعيين مجموعة من نماذج التصنيف مسبقًا كإطار ETF للفضاء الكامل للوسوم، بما في ذلك الجلسة الأساسية وجميع الجلسات التدريجية. أثناء التدريب، لا تكون نماذج التصنيف قابلة للتعلم، ونستخدم دالة خسارة جديدة تُجبر الميزات على الاقتراب من نماذجها المقابلة. وتبين التحليلات النظرية أن طريقتنا تحافظ على الكفاءة المثلى لانهيار الشبكة العصبية ولا تُفسد التوافق بين الميزات وتصنيف الفئات بطريقة تدريجية. وتشير النتائج التجريبية على مجموعات بيانات miniImageNet وCUB-200 وCIFAR-100 إلى أن الإطار المقترح يتفوق على أفضل الأداءات الحالية. وسيتم إتاحة كودنا بشكل عام.

المحاذاة المُلهمة بالانهيار العصبي بين الميزات والفصل في التعلم الفئوي القائم على عدد قليل من الأمثلة وتحديث فئوي تدريجي | أحدث الأوراق البحثية | HyperAI