SAME: كشف غموض صندوق أسود GNN من خلال تفسيرات متعددة تعتمد على شابلي واعية بالهيكل

تُقدّم تقنيات التفسير ما بعد الحدث (post-hoc) الخاصة بشبكات التعلم الرسومية (GNNs) حلولًا اقتصادية لفتح النماذج الرسومية المظلمة (black-box) دون الحاجة إلى إعادة تدريب النموذج. وقد حققت العديد من التطورات في تفسير GNNs نتائج متفوقة على مستوى الحالة الحالية (state-of-the-art) في مجموعة متنوعة من المعايير (benchmarks)، ومع ذلك، فإنها نادراً ما تقدم تحليلًا نظريًا لخصائصها الجوهرية وقدرتها على التفسير. في هذا العمل، نقترح طريقة مبنية على شابلي (Shapley) تُسمى SAME (S-Structure-Aware, A-Adaptive, M-Multipiece, E-Explanation)، والتي تهدف إلى معالجة التحديات المتعلقة بالتفاعلات المُعتمدة على البنية (structure-aware feature interactions) في تفسير GNNs. بشكل خاص، تُستخدم SAME خوارزمية بحث شجرة مونت كارلو تعتمد على التوسع (expansion-based Monte Carlo tree search) لاستكشاف البنية المتعددة الحُسْن (multi-grained) للهياكل الفرعية المتصلة المُستندة إلى البنية. وبعد ذلك، تُحسّن النتائج التفسيرية لتصبح أكثر إفادةً في التعبير عن خصائص الرسم البياني من خلال تحسين تركيب الهياكل الفرعية الفردية المتميزة. وبمراعاة التفاعلات العادلة بين الميزات أثناء استكشاف عدة هياكل فرعية مهمة متصلة، فإن التفسير الذي تقدمه SAME يمتلك القدرة على أن يكون مُفسّرًا بدرجة تقارب التفسير المثالي نظريًا المُحصل عليه باستخدام قيمة شابلي (Shapley value)، وبزمن متعدد الحدود (polynomial time). أظهرت التجارب الواسعة على معايير واقعية واصطناعية أن SAME تُحسّن أداء التفسير (fidelity) المُتفوّق السابق بنسبة 12.9% على BBBP، و7.01% على MUTAG، و42.3% على Graph-SST2، و38.9% على Graph-SST5، و11.3% على BA-2Motifs، و18.2% على BA-Shapes، تحت نفس ظروف الاختبار. يُمكن الاطلاع على الكود من خلال الرابط: https://github.com/same2023neurips/same. رقم التقديم: 12143