من النجوم إلى الفرعية: رفع كفاءة أي GNN من خلال الوعي بالهيكل المحلي

تمثّل شبكات التعلم العصبي الرسومية التي تعتمد على تبادل الرسائل (MPNNs) نوعًا شائعًا من شبكات التعلم العصبي الرسومية (GNN)، حيث يتم حساب تمثيل كل عقدة بشكل تكراري من خلال تجميع التمثيلات (الرسائل) من جيرانها المباشرين، بأسلوب يشبه النمط النجمي. تُعدّ MPNNs جذابة بفضل كفاءتها وقابلية التوسع، إلا أن قدرتها التعبيرية محدودة علويًا باختبار التماثل ويسفلاير-ليهمن من الدرجة الأولى (1-WL). في المقابل، اقترح الأبحاث السابقة نماذج ذات قدرة تعبيرية عالية، ولكن بثمن فقدان في التوسعية وأحيانًا في الأداء العام. يقع عملنا بين هذين النموذجين: نقدّم إطارًا عامًا لرفع قدرة أي MPNN على التعبير، مع تكلفة محدودة على التوسعية وتحسين كبير في الأداء العملي. نحقّق ذلك من خلال توسيع عملية التجميع المحلي في MPNNs من الأنماط النجمية إلى أنماط فرعية عامة للرسم البياني (مثل k-egonets): في إطارنا، يتم حساب تمثيل كل عقدة كترميز لرسم فرعي مُستَحَقّ (induced subgraph) محيط بها، بدلًا من ترميز الجيران المباشرين فقط (أي النمط النجمي). ونختار مُشفّر الرسم الفرعي ليكون شبكة تعلم عصبي رسمية (GNN)، وبشكل رئيسي MPNNs، بالنظر إلى قابلية التوسع، بهدف تصميم إطار عام يعمل كغلاف (wrapper) لرفع أي شبكة GNN. نُسمّي الطريقة المقترحة GNN-AK (GNN كواحدة من النوى)، نظرًا لأن الإطار يشبه الشبكة العصبية التلافيفية (CNN) من خلال استبدال النواة بـ GNNs. من الناحية النظرية، نُظهر أن إطارنا أقوى من 1-WL و2-WL بشكل صارم، ولا يقل قوة عن 3-WL. كما صممنا استراتيجيات عينة للرسم الفرعي تقلل بشكل كبير من استهلاك الذاكرة وتحسّن السرعة مع الحفاظ على الأداء. وقد حقّقت طريقة我们的 أداءً جديدًا قياسيًا بفارق كبير في عدة مهام معروفة في التعلم الآلي على الرسوم البيانية؛ على وجه التحديد، تحقّق خطأ متوسطًا مطلقًا (MAE) قدره 0.08 على ZINC، ودقة 74.79% و86.887% على CIFAR10 وPATTERN على التوالي.