HyperAIHyperAI

Command Palette

Search for a command to run...

RAN-GNNs: التغلب على حدود السعة لشبكات التعلم الرسومية

Diego Valsesia Giulia Fracastoro Enrico Magli

الملخص

أصبحت الشبكات العصبية الرسومية (Graph Neural Networks) عنصراً أساسياً في حل المشكلات المتعلقة بتعلم وتحليل البيانات المعرفة على الرسوم البيانية. ومع ذلك، تشير عدة نتائج إلى صعوبة جوهرية في تحقيق أداء أفضل من خلال زيادة عدد الطبقات. وتُعزى الدراسات الحديثة هذه الظاهرة إلى ظاهرة مميزة لاستخراج ميزات العقد في المهام القائمة على الرسوم البيانية، وهي الحاجة إلى أخذ أحجام جيران متعددة في الحسبان في آن واحد، وضبطها بشكل تكيفي. في هذه الورقة، نُجري دراسة معمقة للهياكل العشوائية المتصلة (randomly wired architectures) التي تم اقتراحها مؤخراً في سياق الشبكات العصبية الرسومية. بدلًا من بناء شبكات أعمق من خلال تجميع عدد كبير من الطبقات، نثبت أن استخدام بنية عشوائية متصلة يمكن أن يكون طريقة أكثر فعالية لزيادة قدرة الشبكة والحصول على تمثيلات أكثر غنىً. ونُظهر أن هذه الهياكل تتصرف كمجموعة من المسارات المجمعة (ensemble of paths)، والتي تُمكّن من دمج المساهمات من مجالات استقبال ذات أحجام مختلفة. علاوةً على ذلك، يمكن التحكم في هذه المجالات من خلال الأوزان القابلة للتدريب على المسارات، بحيث تصبح أوسع أو أضيق حسب الحاجة. كما نقدم أدلة تجريبية واسعة النطاق على التفوق الأداء للهياكل العشوائية المتصلة في مهام متعددة وأربعة تعريفات لعمليات التConvolution الرسومية، باستخدام أطر معايير حديثة تُعالج موثوقية منهجيات الاختبار السابقة.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp