DeepDPM: التجميع العميق مع عدد مجموعات غير معروف

أظهر التعلم العميق (DL) وعودًا كبيرة في مهمة التجميع غير المراقبة. ومع ذلك، بينما تُعرف فوائد النهج اللامعلمي جيدًا في التجميع الكلاسيكي (أي، غير العميق)، فإن معظم طرق التجميع العميقة هي معلمية: بمعنى آخر، أنها تتطلب عددًا محددًا ومثبتًا من المجموعات، يُرمز إليه بالحرف K. ولكن عندما يكون K غير معروف، قد يصبح استخدام معايير اختيار النموذج لتحديد قيمته المثلى باهظ الثمن حسابيًا، خاصة في التعلم العميق حيث يجب تكرار عملية التدريب العديد من المرات. في هذا العمل، نغلق هذه الفجوة بإدخال طريقة تجميع عميقة فعالة لا تتطلب معرفة قيمة K حيث يتم استنتاجها أثناء التعلم. باستخدام إطار التقسيم/الدمج، وهندسة ديناميكية تتكيف مع K المتغير، وخسارة جديدة، تتفوق الطريقة المقترحة لدينا على الطرق اللامعلمية القائمة (كلاسيكية كانت أو عميقة). بينما تعاني القليل جداً من الطرق العميقة اللامعلمية القائمة من مشكلة القابلية للتوسع، نحن نوضح قابلية توسع طرقتنا بأننا أول من أبلغ عن أداء مثل هذه الطريقة على ImageNet. كما نوضح أهمية استنتاج K بعرض كيف تسوء أداء الطرق التي تحكم فيها عند ابتعاد قيمتها المفترضة عن القيمة الحقيقية لها، خاصة على مجموعة البيانات غير المتوازنة. رمزنا متاح على https://github.com/BGU-CS-VIL/DeepDPM.