HyperAIHyperAI
منذ 11 أيام

DeepGCNs: جعل GCNs تسير أعمق مثل CNNs

Guohao Li, Matthias Müller, Guocheng Qian, Itzel C. Delgadillo, Abdulellah Abualshour, Ali Thabet, Bernard Ghanem
DeepGCNs: جعل GCNs تسير أعمق مثل CNNs
الملخص

لقد حققت الشبكات العصبية التلافيفية (CNNs) نجاحًا كبيرًا في حل مجموعة متنوعة من مهام الرؤية الحاسوبية، مثل تصنيف الكائنات والكشف عنها، والتقسيم الدلالي، وفهم الأنشطة، على سبيل المثال لا الحصر. وقد كان أحد العوامل الأساسية التي مكّنتها من تحقيق أداء متميز هو القدرة على تدريب شبكات عميقة جدًا. وعلى الرغم من نجاحها الكبير في العديد من المهام، إلا أن الشبكات العصبية التلافيفية لا تعمل بشكل جيد مع البيانات غير الإقليدية، والتي تُعد شائعة في العديد من التطبيقات الواقعية. وتوفر الشبكات العصبية التلافيفية للرسوم البيانية (GCNs) بديلًا يسمح بمعالجة البيانات غير الإقليدية داخل الشبكة العصبية. وعلى الرغم من النتائج المبشرة التي حققتها GCNs، إلا أنها محدودة حاليًا بالهياكل التي تحتوي على عدد نسبيًا قليل من الطبقات، وذلك بشكل رئيسي بسبب تلاشي المشتقات (vanishing gradients) أثناء التدريب. تهدف هذه الدراسة إلى نقل مفاهيم مثل الاتصالات المتبقية (residual/dense connections) والانعكاسات الممتدة (dilated convolutions) من الشبكات العصبية التلافيفية إلى الشبكات العصبية التلافيفية للرسوم البيانية، بهدف تمكين تدريب شبكات GCNs عميقة جدًا بنجاح. ونُظهر تجريبيًا فوائد استخدام GCNs العميقة (بما يصل إلى 112 طبقة) عبر مجموعة متنوعة من المجموعات البيانات والمهام. وبشكل خاص، نحقق أداءً واعدًا جدًا في تقسيم الأجزاء والتقسيم الدلالي لسحابات النقاط (point clouds)، وفي تصنيف العقدة لوظائف البروتينات عبر رسوم بيانية تفاعلية بروتينية بيولوجية (PPI). ونعتقد أن الرؤى المستخلصة في هذه الدراسة ستفتح آفاقًا جديدة لأبحاث مستقبلية في مجال GCNs، وتطبيقاتها على مهام لم تُستكشف بعد في هذا البحث. يُتاح كود المصدر لهذه الدراسة عبر الروابط التالية: https://github.com/lightaime/deep_gcns_torch للتنفيذ باستخدام PyTorch، وhttps://github.com/lightaime/deep_gcns للتنفيذ باستخدام TensorFlow.