NDDR-CNN: دمج الخصائص طبقة بطبقة في شبكات النيورونات التلافيفية متعددة المهام من خلال تقليل البعد التمييزي العصبي

في هذه الورقة، نقترح بنية جديدة لشبكات العصبونات التلافيفية (CNN) موجهة للتعلم متعدد المهام (MTL) العام، والتي تتيح دمج الخصائص تلقائيًا في كل طبقة من المهام المختلفة. وهذا يختلف عن أغلب الهياكل المستخدمة على نطاق واسع لـ MTL في شبكات CNN، التي تشترك في الخصائص بطريقة تجريبية أو تقديرية على بعض الطبقات المحددة (مثل تشريك جميع الخصائص باستثناء الطبقة التلافيفية الأخيرة). يتم صياغة مخطط الدمج الطبقي للخصائص المقترح من خلال الجمع بين مكونات CNN القائمة بطريقة جديدة، مع وجود تفسير رياضي واضح كخفض الأبعاد التمييزي، والذي يشار إليه باسم خفض الأبعاد العصبي التمييزي (NDDR). بصفة خاصة، نقوم أولًا بدمج الخصائص ذات الدقة المكانية نفسها من المهام المختلفة وفقًا بعددها القنوات. ثم نوضح أن خفض الأبعاد التمييزي يمكن تحقيقه باستخدام التلافيف 1x1، والتطبيع الدُفعة، وانحلال الوزن في شبكة CNN واحدة. استخدام مكونات CNN القائمة يضمن التدريب من النهاية إلى النهاية والقابلية للتوسع للطبقة المقترحة NDDR إلى مختلف هياكل شبكات CNN الرائدة بطريقة "أدخل واستخدم" (plug-and-play). يظهر تحليل الإزالة التفصيلي أن الطبقة المقترحة NDDR سهلة التدريب كما أنها مقاومة لمعلميات مختلفة. تُظهر التجارب على مجموعات مهام مختلفة باستخدام هياكل شبكات أساسية متعددة الأداء الواعد والقابلية للتعميم المرغوبة لطريقتنا المقترحة. رمز البرمجة الخاص بورقتنا متاح على https://github.com/ethanygao/NDDR-CNN.