HyperAIHyperAI
منذ 16 أيام

GraphNorm: نهج منطقي لتسريع تدريب الشبكات العصبية الرسومية

Tianle Cai, Shengjie Luo, Keyulu Xu, Di He, Tie-Yan Liu, Liwei Wang
GraphNorm: نهج منطقي لتسريع تدريب الشبكات العصبية الرسومية
الملخص

يُعرف أن التطبيع يساعد في تحسين عمليات التحسين الخاصة بالشبكات العصبية العميقة. ومن المثير للاهتمام أن المعمارية المختلفة تتطلب طرقًا مخصصة للتطبيع. في هذه الورقة، ندرس ما هو النوع الفعّال من التطبيع بالنسبة للشبكات العصبية الرسومية (GNNs). أولاً، نُعدّل ونُقيّم الطرق الحالية المستمدة من مجالات أخرى ونطبّقها على الشبكات العصبية الرسومية. ونلاحظ تحقيق تقارب أسرع باستخدام InstanceNorm مقارنة بـ BatchNorm و LayerNorm. ونقدّم تفسيرًا لهذا الناتج من خلال إظهار أن InstanceNorm يعمل كمُعدّل مسبق (preconditioner) للشبكات العصبية الرسومية، لكن هذا التأثير المُعدّل المسبق يكون أضعف في حالة BatchNorm بسبب وجود ضوضاء كبيرة في الحزم (batch noise) في مجموعات بيانات الرسوم البيانية. ثانيًا، نُظهر أن عملية الانزلاق (shift operation) في InstanceNorm تؤدي إلى تراجع في القدرة التعبيرية للشبكات العصبية الرسومية عند التعامل مع الرسوم البيانية منتظمة جدًا. ونعالج هذه المشكلة من خلال اقتراح طريقة جديدة تُسمى GraphNorm، والتي تُستخدم انزلاقًا قابلاً للتعلم. من الناحية التجريبية، تُظهر الشبكات العصبية الرسومية التي تستخدم GraphNorm تقاربًا أسرع مقارنةً بالشبكات التي تستخدم طرق تطبيع أخرى. كما تُحسّن GraphNorm قدرة التعميم للشبكات العصبية الرسومية، مما يُحقّق أداءً أفضل في معايير تصنيف الرسوم البيانية.

GraphNorm: نهج منطقي لتسريع تدريب الشبكات العصبية الرسومية | أحدث الأوراق البحثية | HyperAI