التعلم العميق القابل للتفسير: نهج تحليلي بصري باستخدام مصفوفات الانتقال
تُشكل شفافية أنظمة الذكاء الاصطناعي (AI)، وبخاصة في التعلم العميق (DL)، تحديات كبيرة تتعلق بقابلية فهم هذه الأنظمة وموثوقيتها. يهدف هذا البحث إلى تعزيز قابلية تفسير نماذج التعلم العميق من خلال مبادئ التحليل البصري (VA) والمشاركة البشرية في الدورة (HITL)، مما يجعل هذه الأنظمة أكثر شفافية وسهولة في الفهم بالنسبة للمستخدمين النهائيين. في هذا العمل، نقترح منهجية جديدة تستخدم مصفوفة انتقالية لفهم نتائج نماذج التعلم العميق من خلال نماذج تعلم آلي (ML) أكثر قابلية للفهم. ويشمل المنهجية بناء مصفوفة انتقالية بين فضاءات الميزات الخاصة بنماذج التعلم العميق ونماذج التعلم الآلي، والتي تمثل على التوالي النماذج الرسمية والذهنية، بهدف تحسين قابلية التفسير في مهام التصنيف. وقد تم التحقق من صحة المنهجية من خلال تجارب حسابية على مجموعات بيانات MNIST وFNC-1 وIris باستخدام معايير مقارنة نوعية وكمية، وهي مدى ابتعاد النتائج التي تم الحصول عليها من خلال المنهجية عن الحقيقة المطلقة للعينات التدريبية والاختبارية. أظهرت النتائج أن المنهجية المقترحة عززت بشكل كبير وضوح النموذج وفهمه في مجموعة بيانات MNIST، حيث بلغت قيم SSIM وPSNR 0.697 و17.94 على التوالي، ما يدل على إعادة بناء عالية الدقة. علاوة على ذلك، حققت المنهجية نتيجة F1m قدرها 77.76% والدقة الموزونة 89.38% في مهمة تحديد الموقف باستخدام مجموعة بيانات FNC-1، معتمدة على قدرتها على تفسير الفروق النصية الجوهرية. أما في مجموعة بيانات Iris، فقد ساهمت المستويات الفاصلة (الهابيربلاين) التي تم بناؤها بناءً على المنهجية المقترحة في تحسين دقة التصنيف. وبشكل عام، باستخدام التحليل البصري، ومبدأ المشاركة البشرية في الدورة، ومصفوفة الانتقال، فإن المنهجية المُقترحة تُحسّن بشكل ملحوظ قابلية تفسير نماذج التعلم العميق دون التأثير على أدائها، مما يمثل خطوة مهمة نحو تطوير أنظمة ذكاء اصطناعي أكثر شفافية وموثوقية.