تحسين أداء تجميع k-أوساط باستخدام تمثيلات داخلية منفصلة

تحاول خوارزميات التجميع العميق دمج تعلم التمثيل والتجميع من خلال تحسين خسارة التجميع وخسارة غير تجميعية بشكل متزامن. في هذه الطرق، يُستخدم شبكة عصبية عميقة لتعلم التمثيل جنبًا إلى جنب مع شبكة تجميع. بدلًا من اتباع هذا الإطار لتحسين أداء التجميع، نقترح نهجًا أبسط يتمثل في تحسين التشابك في تمثيل الكود المخفي المُتعلَّم بواسطة مُشِّرِّب (autoencoder). نُعرّف التشابك بأنه مدى قرب أزواج النقاط من نفس الفئة أو البنية مقارنة بأزواج النقاط من فئات أو هياكل مختلفة. ولقياس تشابك النقاط البياناتية، نستخدم خسارة الجيران الأقرب الناعمة، ونُوسِّعها من خلال إدخال عامل درجة حرارة التبريد (annealing temperature). باستخدام النهج المقترح، حققنا دقة تجميع تجريبية بلغت 96.2% على مجموعة بيانات MNIST، و85.6% على مجموعة بيانات Fashion-MNIST، و79.2% على مجموعة بيانات EMNIST المُوازنة، متفوّقةً بذلك على النماذج الأساسية لدينا.