تحسين الت正则化 في شبكات العصبونات المتشابكة باستخدام Cutout 注意:在阿拉伯语中,“Convolutional Neural Networks” 通常翻译为 “شبكات العصبونات المتشابكة” 或 “الشبكات العصبية المت convoled”(后者更接近英文原意,但前者更为常用)。根据上下文和期刊的风格,我选择了 “شبكات العصبونات المتشابكة”。如果你有特定的偏好,请告诉我。

شبكات العصبونات المتلافهة قادرة على تعلم فضاءات تمثيلية قوية، وهي ضرورية للتعامل مع المهام التعليمية المعقدة. ومع ذلك، بسبب القدرة النموذجية المطلوبة لتقديم مثل هذه التمثيلات، غالباً ما تكون عرضة للتضخيم الزائد (overfitting) ولذلك تتطلب تنظيماً مناسباً حتى تعمم بشكل جيد. في هذا البحث، نظهر أن تقنية التنظيم البسيطة التي تتمثل في إخفاء مربعات عشوائية من الإدخال أثناء التدريب، والتي نطلق عليها اسم "القطع" (cutout)، يمكن استخدامها لتحسين متانة والأداء العام لشبكات العصبونات المتلافهة. ليس فقط هذه الطريقة سهلة التنفيذ للغاية، بل نوضح أيضًا أنها يمكن استخدامها بالاشتراك مع أشكال موجودة من زيادة البيانات وغيرها من التقنيات التنظيمية لتحسين الأداء النموذجي بشكل أكبر. نقيم هذه الطريقة بتطبيقها على هياكل حالية رائدة في مجال الذكاء الاصطناعي على مجموعات البيانات CIFAR-10 وCIFAR-100 وSVHN، مما أدى إلى تحقيق نتائج جديدة رائدة في المجال بمعدل خطأ اختباري يبلغ 2.56٪ و15.20٪ و1.30٪ على التوالي. الرمز البرمجي متاح على https://github.com/uoguelph-mlrg/Cutout