HyperAIHyperAI
منذ 15 أيام

فكّك عمق ونطاق الشبكات العصبية الرسومية

Hanqing Zeng, Muhan Zhang, Yinglong Xia, Ajitesh Srivastava, Andrey Malevich, Rajgopal Kannan, Viktor Prasanna, Long Jin, Ren Chen
فكّك عمق ونطاق الشبكات العصبية الرسومية
الملخص

الشبكات العصبية الرسومية (GNNs) من الجيل الأحدث تمتلك قدرة توسّع محدودة فيما يتعلق بحجم الرسم البياني وحجم النموذج. في الرسوم البيانية الكبيرة، فإن زيادة عمق النموذج غالبًا ما يؤدي إلى توسع أسي في النطاق (أي مجال الاستقبال). فور تجاوز بضع طبقات، تظهر تحديان أساسيان: الأول، تراجع القدرة التعبيرية بسبب ظاهرة التمويه الزائد (oversmoothing)، والثاني، التكلفة الحسابية العالية الناتجة عن انفجار الجيران (neighborhood explosion). نقترح مبدأ تصميم يفصل بين عمق GNN ونطاقها: لاستخراج تمثيل كائن مستهدف (أي عقدة أو حافة)، نستخرج أولًا رسمًا فرعيًا محليًا كنطاق محدود الحجم، ثم نطبق GNN بعمق أيّ كان على هذا الرسم الفرعي. يتكوّن الرسم الفرعي المُستخرج بشكل مناسب من عدد قليل من الجيران المهمين، مع استبعاد الجيران غير المرتبطة. وبغض النظر عن عمق GNN، فإنها تُحوّل الجيران المحليين إلى تمثيل معلوماتي، بدلًا من تمويه الرسم البياني الكلي إلى "ضوضاء بيضاء" (white noise). من الناحية النظرية، يُحسّن الفصل بين العمق والنطاق قدرة GNN التعبيرية من زوايا متعددة: معالجة إشارات الرسم البياني (GCN)، وتقريب الدوال (GraphSAGE)، والتعلم التوافقي (GIN). من الناحية التجريبية، حقق تصميمنا تحسينًا كبيرًا في الدقة على سبعة رسوم بيانية (بما في ذلك رسوم بحجم يصل إلى 110 مليون عقدة) وستة هياكل أساسية لـ GNN، مع تقليل كبير في الحسابات والتكلفة المادية بمرات عديدة.

فكّك عمق ونطاق الشبكات العصبية الرسومية | أحدث الأوراق البحثية | HyperAI