N2D: (ليس كثيراً) التجميع العميق عبر تجميع المانيفولد المحلي للاMBEDDING المُشفر تلقائياً

تظهر تقنيات التجميع العميقة تفوقًا متزايدًا على خوارزميات التجميع التقليدية الضحلة. عادةً ما تجمع الخوارزميات العميقة للتجميع بين تعلم التمثيلات والشبكات العصبية العميقة لتحقيق هذه الأداء، حيث يتم عادةً تحسين دالة خسارة للتجميع ودالة خسارة غير متعلقة بالتجميع. في مثل هذه الحالات، يتم ربط مُشفِّر ذاتي (Autoencoder) بشبكة التجميع، ويتم تعلم التجميع النهائي بشكل مشترك بواسطة المُشفِّر الذاتي وشبكة التجميع. بدلاً من ذلك، نقترح تعلم تمثيل مُشفَّر ذاتي ثم البحث عن المنحني الكامن (Manifold) فيه. لتبسيط العملية، نقوم بعد ذلك بتجميع هذا التمثيل باستخدام خوارزمية تجميع ضحلة بدلاً من شبكة أعمق.درسنا عددًا من طرق تعلم المنحني المحلية والعالمية على البيانات الخام وعلى التمثيل المُشفَّر ذاتي، وخلصنا إلى أن UMAP في إطار عملنا هو الأفضل في العثور على المنحني الأكثر قابلية للتجميع في التمثيل، مما يشير إلى أن تعلم المنحني المحلي على تمثيل مُشفَّر ذاتي فعال لاكتشاف مجموعات ذات جودة أعلى. أظهرنا كميةً عبر مجموعة متنوعة من بيانات الصور ومجموعات البيانات المتسلسلة زمنيًا أن طريقتنا لها أداء تنافسي مقابل أحدث خوارزميات التجميع العميقة، بما في ذلك التفوق على الحالة الحالية للتقنية الرائدة في عدة حالات. نفترض أن هذه النتائج تشير إلى اتجاه بحث واعد في مجال التجميع العميق. يمكن الوصول إلى الكود من خلال الرابط: https://github.com/rymc/n2d