فريق بكين للبريد الإلكتروني يطور إطارًا قويًا للاستدلال على هيكل الرسم البياني يمكنه تحديد وإصلاح الشبكات الاجتماعية المهاجَمة
فريق بحث من جامعة Bắc Kinh للبريد والاتصالات الإلكترونية، بالتعاون مع شركاء آخرين، استكشف لأول مرة إمكانية استغلال النماذج الكبيرة لتعزيز قوة الشبكات العصبية الرسومية (GNNS) ضد الهجمات. النموذج المقترح، الذي يُعرف بإطار LLM4RGNN، يستخدم النماذج الكبيرة لزيادة مقاومة GNNS للهجمات وتحسين أدائها. LLM4RGNN يمثل إطار عمل عام يمكن تطبيقه على أنواع مختلفة من النماذج الكبيرة والشبكات العصبية الرسومية. التجارب التي أجريت أكدت قدرة هذا الإطار على زيادة صمود GNNS بشكل كبير في مواجهة الهجمات التوبولوجية. حتى في حالات وجود اضطراب يصل إلى 40% في البيانات، كانت الدقة التي حققتها GNNS التي تستعمل LLM4RGNN أفضل من تلك التي تم الحصول عليها باستخدام البيانات النقية. الفريق البحثي، بقيادة الباحث Zhang Zhongjian، أنشأ مجموعة بيانات مفتوحة المصدر تتألف من تقييمات وتحليلات لـ GPT-4 لما يقارب 26,518 حافة، وهي تعتبر خبيثة. يمكن استخدام هذه المجموعة لضبط أي نموذج كبير، بهدف منحه قدرة LLM4RGNN على الاستدلال التوبولوجي القوي. الدافع وراء هذا البحث يتمثل في الضعف الذي تعاني منه GNNS في مواجهة الهجمات المعادية، بالإضافة إلى الانتشار الواسع للنماذج الكبيرة في مجال التعلم العميق. على مدى السنوات القليلة الماضية، أصبحت GNNS أداة مهمة في تحليل الشبكات الاجتماعية، البيوинформاتيات، أنظمة التوصية، وإدارة المخاطر المالية، بفضل قدرتها الكبيرة على التعلم التمثيلي. ولكن، الاضطرابات الطفيفة التي يمكن أن يقوم بها المهاجمون في هيكل الرسم البياني (مثل إضافة أو حذف حافات) قد تتسبب في تدهور كبير في دقة التصنيف، مما يؤثر سلبًا على استقرار وقابلية التعامل مع الحالات الجديدة للنموذج. الطرق الدفاعية الحالية، سواء التي تعتمد على تصميم هندسة النموذج أو على قواعد التجربة لتصحيح هيكل الرسم البياني، لم تكن فعالة بما يكفي. ومع ذلك، أظهرت النماذج الكبيرة مثل ChatGPT نجاحًا ملحوظًا، مما أدى إلى اهتمام متزايد باستكشاف إمكاناتها في مجال GNNS. معظم الأبحاث السابقة ركزت على تحسين خصائص العقدة عبر النماذج الكبيرة لتحسين أداء GNNS. هذا البحث، بدوره، استهدف الاستفادة من قدرات الفهم والاستدلال القوية للنماذج الكبيرة لتعزيز صمود GNNS. نتائج التجارب أظهرت أن النماذج الكبيرة يمكن أن تزيد من صمود GNNS، لكنه لم يكن كافيًا، حيث انخفضت الدقة بمعدل متوسط 23.1% في وجه الهجمات التوبولوجية. هذا الأمر دفع الفريق البحثي إلى التفكير في كيفية توسيع قدرات النماذج الكبيرة في مجال الصمود التوبولوجي. الإجابة على هذا السؤال يمكن أن توفر منظورًا جديدًا للبحث في مشكلة الصمود التوبولوجي، بالإضافة إلى استكشاف إمكانات النماذج الكبيرة في مجال الرسوم البيانية. الآفاق التطبيقية لهذا البحث واعدة. في مجال إدارة المخاطر المالية وكشف الغش، يمكن أن يساعد LLM4RGNN في استعادة شبكات المعاملات التي تعرضت للهجمات، مما يضمن استمرار عمل نماذج كشف الغش بفعالية، وبالتالي تقليل مخاطر الغش المالي. بالنسبة للأمان في الشبكات الاجتماعية، يمكن أن يساهم LLM4RGNN في تحديد وإصلاح الهجمات التي تستهدف تلاعب العلاقات بين المستخدمين، مما يعزز ثقة المستخدمين وسلامة المنصة. في أنظمة التوصية، يمكن أن يساعد الإطار في كشف وتصحيح العلاقات الخبيثة بين المستخدمين والمواد، مما يمنع التلاعب الخبيث ويحسن العدالة والثقة في التوصيات. الورقة البحثية، بعنوان "هل يمكن للنماذج الكبيرة اللغوية تحسين صمود الشبكات العصبية الرسومية ضد الهجمات؟" (Can Large Language Models Improve the Adversarial Robustness of Graph Neural Networks?)، تم تقديمها في مؤتمر ACM SIGKDD الدولي للاكتشاف المعرفي واستخراج البيانات لعام 2025.