التعلم التدريجي للتصنيف دون أمثلة من خلال تصنيفات فردية تمييزية وقابلة للمقارنة

التعلم التدريجي للتصنيف دون أمثلة يتطلب من نماذج التصنيف تعلم المعرفة الجديدة للفئات بشكل تدريجي دون الاحتفاظ بأي عينات قديمة. مؤخرًا، جذب الإطار القائم على المصنفات الأحادية المتوازية (POC)، والذي يقوم بتدريب مصنف أحادي (OCC) بشكل مستقل لكل فئة، اهتمامًا واسعًا لأنه يمكنه تجنب النسيان الكارثي بشكل طبيعي. ومع ذلك، يعاني POC من ضعف في التمييز والمقارنة بسبب استراتيجيته المستقلة لتدريب مختلف المصنفات الأحادية. لمواجهة هذا التحدي، نقترح إطارًا جديدًا باسم "المصنفات الأحادية التمييزية والقابلة للمقارنة للتعلم التدريجي" (DisCOIL). يتبع DisCOIL المبدأ الأساسي لـ POC، ولكنه يستخدم مفككات أوتوماتيكية متغيرة (VAE) بدلاً من المصنفات الأحادية المعروفة جيدًا الأخرى (مثل deep SVDD)، لأن مفكك أوتوماتيكي متغير مدرب يمكنه ليس فقط تحديد احتمالية انتماء عينة إدخال إلى فئة معينة ولكن أيضًا إنشاء عينات وهمية لهذه الفئة لمساعدة في تعلم المهام الجديدة. بفضل هذه الميزة، يقوم DisCOIL بتدريب مفكك أوتوماتيكي متغير جديد للفئة بشكل معاكس لمفككات أوتوماتيكية متغيرة الفئات القديمة، مما يجبر مفكك أوتوماتيكي متغير الفئة الجديدة على إعادة بناء العينات الجديدة بشكل أفضل ولكن العينات الوهمية القديمة بشكل أسوأ، وبالتالي تعزيز القابلية للمقارنة. بالإضافة إلى ذلك، يُدخل DisCOIL خسارة إعادة بناء الهنج لتضمن التمييز. قمنا بتقييم طريقتنا بشكل شامل على MNIST و CIFAR10 و Tiny-ImageNet. تظهر نتائج التجارب أن DisCOIL يصل إلى أداء رائد في المجال (state-of-the-art).