تعلم التمثيل للتكسير من خلال تشتت البروتوتيبات وعينة الإيجابية

تعتمد الطرق الحالية للتكديس العميق إما على التعلم الممثل (representation learning) القائم على المقارنة أو غير القائم على المقارنة لمهام التكديس اللاحقة. تتميز الطرق القائمة على المقارنة بقدرتها على تعلم تمثيلات متجانسة للتكديس بفضل أزواج السلبية، ومع ذلك فإن هذه الأزواج قد تؤدي حتمًا إلى مشكلة اصطدام الفئات (class collision)، مما يضر أداء التكديس. من ناحية أخرى، تتجنب الطرق القائمة على غير المقارنة مشكلة اصطدام الفئات، لكن التمثيلات غير المتجانسة الناتجة قد تؤدي إلى انهيار التكديس (clustering collapse). وللاستفادة من مزايا كلا النوعين، تقدم هذه الورقة طريقة جديدة للتكديس العميق من النهاية إلى النهاية تُدعى ProPos، تعتمد على تشتت النماذج (prototype scattering) والعينة الموجبة (positive sampling). بشكل محدد، نحن نبدأ بزيادة المسافة بين التمثيلات النموذجية، ونُسمّي هذه الوظيفة "خسارة تشتت النماذج (prototype scattering loss)"، والتي تُحسّن تجانس التمثيلات. ثانيًا، نُحاكي أحد الأنظمة المُعدّلة للنموذج مع الجيران المُستَنَدَين من النظام الآخر — بافتراض أنهم زوج موجب حقيقي في فضاء التمثيل — بهدف تحسين الكثافة داخل المجموعة (within-cluster compactness)، ونُسمّي هذه العملية "محاذاة العينة الموجبة (positive sampling alignment)". تتميز ProPos بالقدرة على تجنب مشكلة اصطدام الفئات، وتحقيق تمثيلات متجانسة، وClusters منفصلة جيدًا، وكمّية عالية من الكثافة داخل المجموعات. وبتحسين ProPos ضمن إطار عمل تكراري (expectation-maximization) من النهاية إلى النهاية، تُظهر النتائج التجريبية الواسعة أداءً تنافسيًا على مجموعات بيانات معيارية متوسطة الحجم، وتحقيق أداءً جديدًا في مستوى الحالة الحالية (state-of-the-art) على مجموعات بيانات كبيرة الحجم. يمكن الوصول إلى الكود المصدري من خلال الرابط: \url{https://github.com/Hzzone/ProPos}.