الشبكات العصبية المعمقة المقلية

تتضمن الطبقات المتصلة بالكامل في شبكة عصبية تقنية ذات ترتيبات متعددة (الشبكات العصبية التلافيفية العميقة) عادةً أكثر من 90٪ من معلمات الشبكة، وتستهلك الجزء الأكبر من الذاكرة المطلوبة لتخزين هذه المعلمات. إن تقليل عدد المعلمات مع الحفاظ على الأداء التنبؤي الأساسي هو أمر حاسم للعمل بالشبكات العصبية العميقة في بيئات محدودة الذاكرة مثل وحدات معالجة الرسوميات (GPUs) أو الأجهزة المدمجة.في هذا البحث، نوضح كيف يمكن استخدام طرق النواة، وبشكل خاص طبقة واحدة من طبقات Fastfood، لاستبدال جميع الطبقات المتصلة بالكامل في شبكة عصبية تلافيفية عميقة. يمكن تدريب هذه الطبقة الجديدة Fastfood بشكل شامل من البداية إلى النهاية مع الطبقات التلافيفية، مما يسمح لنا بدمجها في هندسة جديدة أطلقنا عليها اسم الشبكات العصبية التلافيفية المقليّة بعمق (Deep Fried Convolutional Networks)، والتي تقلل بشكل كبير من البصمة الذاكرية للشبكات التلافيفية التي تم تدريبها على قاعدة بيانات MNIST و ImageNet دون أي انخفاض في الأداء التنبؤي.