HyperAIHyperAI
منذ 2 أشهر

شبكات الكبسولات الكثيفة والمتنوعة: جعل الكبسولات تتعلم بشكل أفضل

Sai Samarth R Phaye; Apoorva Sikka; Abhinav Dhall; Deepti Bathula
شبكات الكبسولات الكثيفة والمتنوعة: جعل الكبسولات تتعلم بشكل أفضل
الملخص

شهدت السنوات القليلة الماضية نموًا متسارعًا في الاهتمام بطرق التعلم العميق مع تحسينات سريعة في الدقة وانخفاض التعقيد الحسابي. بشكل خاص، حققت الهياكل التي تستخدم شبكات العصبونات المتكررة (CNNs) أداءً رائدًا في مهام تصنيف الصور وتعرف الأشياء. مؤخرًا، حققت شبكات الكبسولات (CapsNet) زيادة كبيرة في الأداء من خلال معالجة قيد أساسي لـ CNNs في ترميز الوضع والتشوه. مستوحى من هذه التطورات، طرحنا على أنفسنا السؤال: هل يمكننا تحقيق أفضل؟ نقترح شبكات الكبسولات الكثيفة (DCNet) وشبكات الكبسولات المتنوعة (DCNet++).تقوم الإطاران المقترحان بتخصيص CapsNet عن طريق استبدال الطبقات المتكررة القياسية بالمتكررات المرتبطة بكثافة. هذا يساعد في دمج الخرائط المميزة التي تم تعلمها بواسطة طبقات مختلفة في تكوين الكبسولات الأولية. يضيف DCNet شبكة متكررة أعمق، مما يؤدي إلى تعلم الخرائط المميزة. بالإضافة إلى ذلك، يستخدم DCNet++ هندسة متدرجة لتعلم الكبسولات التي تمثل المعلومات المكانية بطريقة تتدرج من الدقيقة إلى العامة، مما يجعله أكثر كفاءة في تعلم البيانات المعقدة.أظهرت التجارب على مهمة تصنيف الصور باستخدام مجموعات بيانات معيارية فعالية الأطر المقترحة. حيث حقق DCNet أداءً رائدًا بنسبة (99.75%) على مجموعة بيانات MNIST مع انخفاض عشرين ضعفًا في إجمالي عدد التكرارات التدريبية مقارنة بالـ CapsNet التقليدية. علاوة على ذلك، أدى DCNet++ بشكل أفضل من CapsNet على مجموعة بيانات SVHN بنسبة (96.90%)، وتفوق على مجموعة من سبع نماذج CapsNet على CIFAR-10 بنسبة 0.31% مع انخفاض سبعة أضعاف في عدد المعلمات.

شبكات الكبسولات الكثيفة والمتنوعة: جعل الكبسولات تتعلم بشكل أفضل | أحدث الأوراق البحثية | HyperAI