إلى أفضل الممارسات في تفسير قرارات الشبكات العصبية باستخدام LRP

خلال العقد الماضي، أظهرت النماذج القائمة على الشبكات العصبية التنبؤية قدرات مذهلة – وأحيانًا تفوق البشرية – لكن هذه الأداء يُدفع ثمنه غالبًا بعملية تنبؤ غير شفافة، ما أثار تطورًا واسعًا في مجال جديد يُعرف بذكاء اصطناعي قابل للتفسير (XAI). في هذه الورقة، نركّز على طريقة شائعة ومنتشرة في مجال XAI تُعرف بـ "نقل التأثير من طبقة إلى طبقة" (Layer-wise Relevance Propagation - LRP). منذ طرحها الأولي، تطورت LRP إلى طريقة منهجية، وبرزت ممارسة مثلى لتطبيقها بشكل ضمني، لكن هذه الممارسة اعتمدت فقط على أدلة ملاحظة من قبل البشر. في هذه الورقة، نستعرض – ولأول مرة – تأثير هذه الممارسة المثلى الحالية على الشبكات العصبية التغذوية الأمامية في سياق الكشف البصري عن الكائنات، ونقدّر هذا التأثير كمّيًا. تؤكد النتائج أن النهج القائم على الطبقات في تطبيق LRP، والذي تم استخدامه في الأدبيات الحديثة، يعكس بشكل أفضل عملية تفكير النموذج، وفي الوقت نفسه يُحسّن من دقة تحديد موقع الكائنات وتمييز الفئات.