HyperAIHyperAI
منذ 11 أيام

Condensation-Net: معمارية شبكة فعالة من حيث الذاكرة مع طبقات تجميع عبر القنوات وخرائط ميزات افتراضية

Tse-Wei Chen, Motoki Yoshinaga, Hongxing Gao, Wei Tao, Dongchao Wen, Junjie Liu, Kinya Osa, Masami Kato
Condensation-Net: معمارية شبكة فعالة من حيث الذاكرة مع طبقات تجميع عبر القنوات وخرائط ميزات افتراضية
الملخص

يُعدّ موضوع الشبكات العصبية التلافيفية الخفيفة الوزن (Lightweight convolutional neural networks) موضوعًا مهمًا في مجال الرؤية المدمجة. ولتنفيذ مهام التعرف على الصور على منصات هاردوير محدودة الموارد، من الضروري تقليل حجم الذاكرة والتكلفة الحسابية. وتُقدّم هذه الورقة المساهمات التالية: أولاً، نقترح خوارزمية لمعالجة بنية شبكة محددة (Condensation-Net) دون زيادة أقصى حجم تخزين للخرائط المميزة (feature maps). وتُوفر البنية المُقترحة لخرائط الميزات الافتراضية (virtual feature maps) خفضًا بنسبة 26.5% في عرض نطاق ذاكرة الذاكرة (memory bandwidth) من خلال حساب نتائج التجميع عبر القنوات (cross-channel pooling) قبل حفظ الخريطة المميزة في الذاكرة. ثانيًا، نُظهر أن التجميع عبر القنوات يُحسّن دقة مهام الكشف عن الكائنات، مثل كشف الوجه، وذلك بزيادة عدد أوزان المرشحات (filter weights). مقارنةً بـ Tiny-YOLOv2، تُسجّل زيادة في الدقة بنسبة 2.0% للشبكات المُكمّلة (quantized networks) و1.5% للشبكات ذات الدقة الكاملة (full-precision networks) عند معدل خطأ إيجابي كاذب (false-positive rate) قدره 0.1. وأخيرًا، تُظهر نتائج التحليل أن الحمل الإضافي الناتج عن دعم التجميع عبر القنوات باستخدام البنية الصلبة المقترحة هو ضئيل جدًا. حيث يُشكّل التكلفة الإضافية في الذاكرة 0.2% من الحجم الإجمالي، بينما تُشكّل الكمية الإضافية من البوابات (gate count) 1.0% فقط من الحجم الكلي.

Condensation-Net: معمارية شبكة فعالة من حيث الذاكرة مع طبقات تجميع عبر القنوات وخرائط ميزات افتراضية | أحدث الأوراق البحثية | HyperAI