EfficientNet: إعادة التفكير في توسعة النماذج للشبكات العصبية الم convo�ionale 请注意,"convoزional" 这个词在阿拉伯语中通常写作 "تصویعية" 或 "متعددة الطبقات"،但为了保持与原文的一致性,这里使用了直译。如果你希望使用更符合阿拉伯语习惯的表达,请告诉我。

الشبكات العصبية المتكررة (ConvNets) يتم تطويرها عادةً ضمن ميزانية موارد ثابتة، ثم يتم توسيع نطاقها لتحقيق دقة أفضل إذا كانت الموارد متاحة بشكل أكبر. في هذا البحث، ندرس بطرق منهجية توسيع النماذج ونحدد أن الموازنة الدقيقة بين عمق الشبكة، وعرضها، ودقتها يمكن أن يؤدي إلى أداء أفضل. بناءً على هذه الملاحظة، نقترح طريقة توسيع جديدة تقوم بتوسيع جميع أبعاد العمق/العرض/الدقة بشكل موحد باستخدام معامل مركب بسيط ولكنه فعال للغاية. نوضح فعالية هذه الطريقة في توسيع نطاق شبكات MobileNets و ResNet.لتحقيق المزيد من التقدم، استخدمنا البحث عن الهندسة المعمارية للشبكات العصبية لتصميم شبكة أساسية جديدة وتوسيع نطاقها للحصول على مجموعة من النماذج تُسمى EfficientNets، والتي تحقق دقة وكفاءة أعلى بكثير من الشبكات ConvNets السابقة. وبشكل خاص، حقق نموذجنا EfficientNet-B7 أعلى مستوى من الدقة في العالم بنسبة 84.3% في تصنيف الصور الأول (top-1 accuracy) على ImageNet، بينما يكون أصغر بمقدار 8.4 مرة وأسرع بمقدار 6.1 مرة في الاستدلال مقارنة بأفضل الشبكات ConvNets الموجودة حاليًا. كما أن نماذج EfficientNets الخاصة بنا تنقل بشكل جيد وتحقق أعلى مستوى من الدقة في العالم على مجموعات بيانات التعلم المنقول مثل CIFAR-100 (91.7%) وFlowers (98.8%) ومجموعتين آخرين من بيانات التعلم المنقول، مع عدد أقل بكثير من المعالم (parameters). يمكن الوصول إلى الكود المصدر عبر الرابط: https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet.