التكديس القوي العميق من خلال التعلم التمييزي

في الآونة الأخيرة، تم اقتراح العديد من الطرق التعلم العميق غير المراقبة لتعلم التجميع باستخدام بيانات غير مُعلَّمة. ومن خلال إدخال تقنيات تضخيم البيانات، تركز معظم الطرق الحديثة على التجميع العميق من منظور ينص على أن الصورة الأصلية وتحويلها ينبغي أن تمتلكان تعيينًا تجميعيًا معنويًا مشابهًا. ومع ذلك، قد تختلف ميزات التمثيل بشكل كبير حتى عند تعيينها لنفس المجموعة، نظرًا لأن دالة السوфтماكس حساسة فقط للقيمة القصوى. وقد يؤدي هذا إلى تنوع داخلي عالٍ في فضاء ميزات التمثيل، مما يسبب تقاربًا غير مستقر في الحلول المحلية، وبالتالي يضر بأداء التجميع. لمعالجة هذه النقطة الضعيفة، قمنا بطرح طريقة التجميع العميق المقاوم (DRC). على عكس الطرق الحالية، تنظر DRC إلى التجميع العميق من منظورين: التعيين التجميعي المعنوي وميزات التمثيل، مما يسمح بزيادة التنوع بين الفئات وتقليل التنوع الداخلي للطبقات في آنٍ واحد. علاوةً على ذلك، قمنا باستخلاص إطار عام يمكن من تحويل أي محاولة لتعظيم المعلومات المتبادلة إلى تقليل خسارة التباين من خلال دراسة العلاقة الداخلية بين المعلومات المتبادلة والتعلم التبايني. وتم تطبيق هذا الإطار بنجاح في DRC لتعلم ميزات ثابتة وקבוצות تجميع مقاومة. وأظهرت التجارب الواسعة على ستة معايير شائعة جدًا للتجميع العميق تفوق DRC من حيث الاستقرار والدقة، حيث حققت 71.6% من الدقة المتوسطة على مجموعة بيانات CIFAR-10، أي ما يزيد بنسبة 7.1% عن أفضل النتائج الحالية.