HyperAIHyperAI
منذ 11 أيام

تفسير السببية للشبكات العصبية التلافيفية

{Hichem Debbi}
الملخص

في هذه الورقة، نقدم تقنية تفسيرية لشبكات التعلم التلافيفي (CNN) تعتمد على نظرية السببية التي طرحها هالبيرن وبييرل [12]. تعتمد تقنية التفسير السببي (CexCNN) على قياس أهمية المرشحات (filters) في قرار الشبكة العصبية التلافيفية، وذلك من خلال التفكير التناقض (counterfactual reasoning). علاوةً على ذلك، نستخدم تعريفات موسعة للسببية، تشمل مفهوم "المسؤولية" (responsibility) و"اللومة" (blame)، لتحديد وزن أهمية هذه المرشحات، وتصور مساهمتها في الصورة المدخلة. وبما أن الشبكات العصبية التلافيفية تشكل هيكلًا تسلسليًا (هرميًا)، وبما أن النماذج السببية يمكن أيضًا استخلاصها بشكل هرمي، نستفيد من هذه المماثلة لإنجاز أهم إسهام في هذه الورقة، وهو تحديد الميزات المهمة في الصورة المدخلة التي ساهمت أكثر في قرار الشبكة العصبية التلافيفية. بالإضافة إلى قدرتها على التحديد المكاني (التحفيز)، سنُظهر أن CexCNN يمكن أن تكون مفيدة أيضًا في تقليل حجم النموذج (model compression) من خلال حذف المرشحات الأقل أهمية (pruning). تم اختبار CexCNN على عدة هياكل لشبكات CNN وبيانات مختلفة. (الكود متاح على: https://github.com/HichemDebbi/CexCNN)

تفسير السببية للشبكات العصبية التلافيفية | أحدث الأوراق البحثية | HyperAI