HyperAIHyperAI
منذ 2 أشهر

كم هي شبكات الرسم البياني الانتباهية ملتفتة؟

Shaked Brody; Uri Alon; Eran Yahav
كم هي شبكات الرسم البياني الانتباهية ملتفتة؟
الملخص

شبكات الاهتمام الرسومية (GATs) هي واحدة من أكثر هياكل الشبكات العصبية الرسومية (GNN) شعبية وتعتبر الهيكل الأكثر تقدماً لتعلم التمثيلات باستخدام الرسوم البيانية. في GAT، يركز كل عقد على جيرانه بناءً على تمثيله الخاص كاستعلام. ومع ذلك، في هذه الورقة نوضح أن GAT يقوم بحساب نوع محدود جداً من الاهتمام: تصنيف درجات الاهتمام غير مشروط بالعقدة الاستعلام. نحدد بشكل رسمي هذا النوع المحدود من الاهتمام كاهتمام ثابت ونميزه عن اهتمام ديناميكي أكثر تعبيراً. بسبب استخدام GATs لآلية اهتمام ثابت، هناك مشاكل رسومية بسيطة لا يمكن لـ GAT التعبير عنها: في مشكلة مراقبة، نوضح أن الاهتمام الثابت يعيق GAT حتى من مطابقة بيانات التدريب. لإزالة هذا القيد، نقدم حلاً بسيطاً من خلال تعديل ترتيب العمليات ونسعى إلى اقتراح GATv2: نسخة ديناميكية للإنتباه الرسومي التي تكون أكثر تعبيراً بشكل صارم من GAT. نقوم بتقييم شامل ونوضح أن GATv2 يتفوق على GAT في 11 مقعداً من مقاعد OGB وغيرها من المقاييس بينما نتوافق مع تكاليفهم المعلمية. رمزنا متاح على https://github.com/tech-srl/how_attentive_are_gats . يتم توفير GATv2 كجزء من مكتبة PyTorch Geometric ومكتبة Deep Graph Library ومكتبة TensorFlow GNN.注释:在阿拉伯语中,“OGB”(Open Graph Benchmark)通常直接使用英文缩写,因此在此处保留了“OGB”的英文形式。其他专业术语如“Graph Attention Networks”、“GNN”等也采用了通用的阿拉伯语译法。

كم هي شبكات الرسم البياني الانتباهية ملتفتة؟ | أحدث الأوراق البحثية | HyperAI