HyperAIHyperAI
منذ 11 أيام

الشبكات العصبية الرسومية ذات التمثيلات الهيكلية والمكانية القابلة للتعلم

Vijay Prakash Dwivedi, Anh Tuan Luu, Thomas Laurent, Yoshua Bengio, Xavier Bresson
الشبكات العصبية الرسومية ذات التمثيلات الهيكلية والمكانية القابلة للتعلم
الملخص

أصبحت الشبكات العصبية الرسومية (GNNs) هي الهياكل القياسية للتعلم على الرسوم البيانية. وقد تم تطبيق GNNs في مجالات عديدة تشمل الكيمياء الكمية، وأنظمة التوصية، والرسوم المعرفية، ومعالجة اللغة الطبيعية. أحد المشكلات الرئيسية في الرسوم البيانية العامة هو غياب المعلومات المكانية القياسية للعقد، مما يقلل من قدرة تمثيل GNNs على التمييز بين عقد متماثلة أو أشكال تناظرية أخرى في الرسم البياني. إحدى الطرق لمعالجة هذه المشكلة هي إدخال ترميز مكاني (Positional Encoding - PE) للعقد، وإدراجه في الطبقة المدخلة، تمامًا كما يتم في نماذج Transformers. ومن الأمثلة على ترميزات الموضع في الرسوم البيانية، متجهات القيم الذاتية لمصفوفة لابلاس. في هذا العمل، نقترح فصل التمثيلات البنائية عن التمثيلات المكانية، لتسهيل قدرة الشبكة على تعلّم هاتين الخاصيتين الأساسيتين. ونقدم معمارية جديدة وعامة نسميها LSPE (Learnable Structural and Positional Encodings). وقد قمنا بدراسة عدة نماذج GNNs نادرة التوصيل (sparsely connected) ومتصلة بالكامل (شبيهة بـ Transformers)، ولاحظنا تحسنًا في الأداء على مجموعات بيانات جزيئية، يتراوح بين 1.79% و64.14% عند استخدام ترميزات مكانية قابلة للتعلم لكلتا فئتي GNNs.

الشبكات العصبية الرسومية ذات التمثيلات الهيكلية والمكانية القابلة للتعلم | أحدث الأوراق البحثية | HyperAI