RWKV-UNet: تحسين UNet من خلال التعاون على المدى الطويل لفعالية تقسيم الصور الطبية

في السنوات الأخيرة، شهدت تقنيات التعلم العميق تقدماً كبيراً في تحليل الصور الطبية، خاصة مع شبكات النيورونات المتكررة ذات الأبعاد المتشابكة (CNNs) ونماذج الترانسفورمر. ومع ذلك، فإن شبكات CNN تواجه تحديات في التقاط الارتباطات طويلة المدى، بينما تعاني نماذج الترانسفورمر من تعقيدات حسابية عالية. لمعالجة هذه المشكلات، نقترح نموذج RWKV-UNet، وهو نموذج جديد يدمج بنية RWKV (Receptance Weighted Key Value) في هيكل U-Net. يعزز هذا الدمج قدرة النموذج على التقاط الارتباطات طويلة المدى وتحسين فهم السياق، وهو أمر حاسم لتحقيق دقة عالية في تقسيم الصور الطبية. لقد بنينا مشفراً قوياً باستخدام كتل العكس المتبقي المطورة من RWKV (IR-RWKV) التي تجمع بين CNNs وRWKVs. كما اقترحنا وحدة مزج القنوات العرضية (CCM) لتحسين الروابط القفازية مع دمج الخصائص متعددة الأحجام، مما يحقق دمج المعلومات العالمية للقنوات. أظهرت التجارب على مجموعات بيانات مرجعية، بما في ذلك Synapse، ACDC، BUSI، CVC-ClinicDB، CVC-ColonDB، Kvasir-SEG، ISIC 2017 وGLAS أن RWKV-UNet حقق أداءً رائدًا في أنواع مختلفة من تقسيم الصور الطبية. بالإضافة إلى ذلك,النسخ الأصغر من هذا النموذج مثل RWKV-UNet-S وRWKV-UNet-T توفر توازنًا بين الدقة والكفاءة الحسابية,مما يجعلها مناسبة لتطبيقات سريرية أوسع.请注意,最后一句中的“此外”一词在阿拉伯语中通常会放在句首以增强句子的连贯性和流畅度。因此,我将其调整为:بالإضافة إلى ذلك، تقدم النسخ الأصغر من هذا النموذج مثل RWKV-UNet-S وRWKV-UNet-T توازنًا بين الدقة والكفاءة الحسابية، مما يجعلها مناسبة لتطبيقات سريرية أوسع.