HyperAIHyperAI
منذ 2 أشهر

تعلم الرسوم البيانية غير المتجانسة بكفاءة عبر الإسقاط العشوائي

Jun Hu; Bryan Hooi; Bingsheng He
تعلم الرسوم البيانية غير المتجانسة بكفاءة عبر الإسقاط العشوائي
الملخص

الشبكات العصبية الرسومية غير المتجانسة (HGNNs) هي أدوات قوية للتعلم العميق على الرسوم البيانية غير المتجانسة. تتطلب الشبكات العصبية الرسومية غير المتجانسة التقليدية تمرير رسائل متكرر أثناء التدريب، مما يحد من الكفاءة عند التعامل مع الرسوم البيانية الحقيقية ذات الحجم الكبير. تستخدم الشبكات العصبية الرسومية غير المتجانسة القائمة على التحضير المسبق (pre-computation-based HGNNs) حديثاً تمرير رسالة مرة واحدة لتحويل رسم بياني غير متجانس إلى مصفوفات منتظمة، مما يمكّن التدريب الفعّال بالدُفعات الصغيرة (mini-batch). يمكن تصنيف الشبكات العصبية الرسومية غير المتجانسة القائمة على التحضير المسبق بشكل أساسي إلى فئتين، تختلفان في مدى فقدان المعلومات والكفاءة المسموح بهما. نقترح شبكة عصبية رسومية غير متجانسة هجينة قائمة على التحضير المسبق، باسم شبكة العصبونات الرسومية غير المتجانسة بالتقريب العشوائي (Random Projection Heterogeneous Graph Neural Network - RpHGNN)، والتي تجمع بين فوائد كفاءة أسلوب واحد وفقدان المعلومات المنخفض للأسلوب الآخر. لتحقيق الكفاءة، يتكون الإطار الرئيسي لـ RpHGNN من عمليات تكرار الانتشار ثم التحديث (propagate-then-update)، حيث نقدم خطوة ضغط التقريب العشوائي (Random Projection Squashing) لضمان أن تعقيد العملية يزداد فقط بشكل خطي. لتحقيق فقدان المعلومات المنخفض، نقدم مكون جمع الجيران حسب العلاقات (Relation-wise Neighbor Collection) مع نظام انتشار زوجي-فردي (Even-odd Propagation Scheme)، والذي يهدف إلى جمع المعلومات من الجيران بطريقة أكثر دقة. تشير النتائج التجريبية إلى أن نهجنا يحقق أفضل النتائج في سبع مجموعات بيانات معيارية صغيرة وكبيرة بينما يكون أسرع بنسبة 230% مقارنة بأفضل نقطة مرجعية. وبشكل مفاجئ، فإن نهجنا ليس فقط يتفوق على نقاط المرجع القائمة على المعالجة السابقة بل يتفوق أيضًا على الأساليب النهاية إلى النهاية (end-to-end).

تعلم الرسوم البيانية غير المتجانسة بكفاءة عبر الإسقاط العشوائي | أحدث الأوراق البحثية | HyperAI