ريسنيت تعود: عملية تدريب محسّنة في timm

تظل شبكات التماثل المُؤثرة المصممة من قبل هِي وآخرين المعيار الذهبي في العديد من المنشورات العلمية. وغالبًا ما تُستخدم كمُعمَّل افتراضي في الدراسات، أو كأساس مرجعي عند اقتراح هياكل جديدة. ومع ذلك، شهدت الممارسات المثلى لتدريب الشبكات العصبية تقدمًا كبيرًا منذ ظهور معمَّل ResNet في عام 2015. وقد زادت التحسينات الحديثة في التحسين (optimization) وتوسيع البيانات (data augmentation) من فعالية وصفات التدريب. في هذه الورقة، نُعيد تقييم أداء معمَّل ResNet-50 الأصلي عند تدريبه باستخدام إجراء يدمج هذه التطورات. ونُشارك إعدادات تدريب تنافسية ونماذج مُدرَّبة مسبقًا في مكتبة timm المفتوحة المصدر، بحثًا عن أن تُستخدم كأساس مرجعي أفضل للعمل المستقبلي. على سبيل المثال، وباستخدام إعدادات تدريب أكثر صرامة، يحقق معمَّل ResNet-50 الأصلي دقة أعلى بنسبة 80.4% عند الدقة 224×224 على مجموعة ImageNet-val دون الحاجة إلى بيانات إضافية أو تعلم التجميع (distillation). كما نُقدِّم أيضًا أداءً النماذج الشهيرة باستخدام إجراء التدريب لدينا.