RAN-GNNs: التغلب على حدود السعة لشبكات التعلم الرسومية

أصبحت الشبكات العصبية الرسومية (Graph Neural Networks) عنصراً أساسياً في حل المشكلات المتعلقة بتعلم وتحليل البيانات المعرفة على الرسوم البيانية. ومع ذلك، تشير عدة نتائج إلى صعوبة جوهرية في تحقيق أداء أفضل من خلال زيادة عدد الطبقات. وتُعزى الدراسات الحديثة هذه الظاهرة إلى ظاهرة مميزة لاستخراج ميزات العقد في المهام القائمة على الرسوم البيانية، وهي الحاجة إلى أخذ أحجام جيران متعددة في الحسبان في آن واحد، وضبطها بشكل تكيفي. في هذه الورقة، نُجري دراسة معمقة للهياكل العشوائية المتصلة (randomly wired architectures) التي تم اقتراحها مؤخراً في سياق الشبكات العصبية الرسومية. بدلًا من بناء شبكات أعمق من خلال تجميع عدد كبير من الطبقات، نثبت أن استخدام بنية عشوائية متصلة يمكن أن يكون طريقة أكثر فعالية لزيادة قدرة الشبكة والحصول على تمثيلات أكثر غنىً. ونُظهر أن هذه الهياكل تتصرف كمجموعة من المسارات المجمعة (ensemble of paths)، والتي تُمكّن من دمج المساهمات من مجالات استقبال ذات أحجام مختلفة. علاوةً على ذلك، يمكن التحكم في هذه المجالات من خلال الأوزان القابلة للتدريب على المسارات، بحيث تصبح أوسع أو أضيق حسب الحاجة. كما نقدم أدلة تجريبية واسعة النطاق على التفوق الأداء للهياكل العشوائية المتصلة في مهام متعددة وأربعة تعريفات لعمليات التConvolution الرسومية، باستخدام أطر معايير حديثة تُعالج موثوقية منهجيات الاختبار السابقة.