ممبَا الهجيني للتحليل التصنيفي القائم على عدد قليل من الأمثلة

تستخدم العديد من الطرق الحديثة للتقسيم القائم على عدد قليل من الأمثلة (FSS) الانتباه المتقاطع لدمج الميزات الخلفية (FG) المدعومة في ميزات الاستعلام، بغض النظر عن التعقيد التربيعي المرتبط بها. وقد أظهرت تقنية Mamba الحديثة قدرة جيدة على التقاط الاعتماديات داخل التسلسل، مع الحفاظ على تعقيد خطي فقط. لذلك، نهدف إلى تصميم مبادئ Mamba متقاطعة (شبه انتباه) لالتقاط الاعتماديات بين التسلسلات في سياق FSS. فكرة بسيطة تتمثل في مسح ميزات الدعم لضغطها بشكل انتقائي إلى الحالة المخفية، والتي تُستخدم بعدها كحالة مخفية أولية لمسح ميزات الاستعلام تباعًا. ومع ذلك، فإن هذه الطريقة تعاني من مشكلتين رئيسيتين: (1) مشكلة نسيان الدعم: حيث تُضغط ميزات الاستعلام أيضًا تدريجيًا أثناء المسح، مما يؤدي إلى تقلص تدريجي لمعلومات الدعم المخزنة في الحالة المخفية، وبالتالي لا يمكن لعدد كبير من بكسلات الاستعلام دمج معلومات دعم كافية؛ (2) مشكلة الفجوة بين الفئات: ففي الأساس، تكون ميزات الاستعلام الخلفية (FG) أكثر تشابهًا مع نفسها من ميزات الدعم الخلفية (FG)، أي أن الاستعلام قد يفضّل عدم دمج ميزات الدعم، بل الاعتماد على ميزاته الخاصة المخزنة في الحالة المخفية، بينما يعتمد نجاح FSS بشكل فعّال على استخدام معلومات الدعم. لمعالجة هاتين المشكلتين، قمنا بتصميم شبكة Mamba هجينة (HMNet)، تتضمن: (1) Mamba مُعاد تأهيل الميزات الداعمة، الذي يقوم بإعادة استرجاع ميزات الدعم دوريًا أثناء مسح الاستعلام، مما يضمن بقاء الحالة المخفية تحتوي على معلومات دعم غنية دائمًا؛ (2) Mamba مُعطل ميزات الاستعلام، الذي يمنع التفاعلات المتبادلة بين بكسلات الاستعلام، ويشجعها على دمج المزيد من ميزات الدعم من الحالة المخفية. نتيجة لذلك، يتم استخدام معلومات الدعم بشكل أفضل، مما يؤدي إلى أداء متفوق. أُجريت تجارب واسعة على معيارين عامين، وأظهرت النتائج تفوق HMNet. يمكن الوصول إلى الكود عبر الرابط: https://github.com/Sam1224/HMNet.