تعلم تمثيلات الشبكة العصبية الرسومية الشاملة باستخدام مساعدة التعلم الناقل

أصبح تعلّم التضمينات القوية للبيانات محورًا رئيسيًا في التعلم الآلي، خاصة في مجالات معالجة اللغة الطبيعية والرؤية الحاسوبية. ويتمثل جوهر هذه التضمينات في أنّها تُدرّس مسبقًا على مجموعات بيانات ضخمة بطريقة غير مراقبة، وأحيانًا بمساعدة التعلم المنقول. ومع ذلك، في حقل تعلّم الرسوم البيانية، لا تزال التضمينات التي تُتعلم من خلال الشبكات العصبية للرسوم البيانية (GNNs) الحالية تعتمد على المهمة، وبالتالي لا يمكن مشاركتها عبر مجموعات بيانات مختلفة. في هذه الورقة، نقدّم أول شبكة عصبية للرسوم البيانية قوية ومضمونة نظريًا، مصممة لتعلم تضمينات رسوم بيانية مستقلة عن المهمة، وتُعرف فيما بعد باسم "التوسيع الرسومي العميق الشامل" (DUGNN). يحتوي نموذج DUGNN على شبكة عصبية للرسوم البيانية مبتكرة (كمُشفّر رسومي شامل) ويعتمد على كيرنيلات رسوم بيانية غنية (كمُفكّك رسومي متعدد المهام) لدعم التعلّم غير المراقب والتعلّم المراقب المتكيف (حسب المهمة). وبفضل تعلّم التضمينات المستقلة عن المهمة عبر مجموعات بيانات متنوعة، يستفيد DUGNN أيضًا من فوائد التعلم المنقول. من خلال تجارب واسعة ودراسات تحليلية، نُظهر أن نموذج DUGNN المُقترح يتفوّق باستمرار على النماذج الحالية المتميزة من الشبكات العصبية للرسوم البيانية وكيرنيلات الرسوم البيانية، بزيادة دقة تتراوح بين 3% إلى 8% على مجموعات بيانات معيارية لتصنيف الرسوم البيانية.